Mann vergiftet sich mit Natriumbromid – weil ChatGPT ihm das als Salzersatz anpries

vor einem Tag - Watson

ChatGPT sollte man nicht blind vertrauen, schon gar nicht, wenn es um Gesundheitstipps geht. Das musste ein 60-jähriger Mann auf die harte Tour lernen, wie eine Fallschilderung in der US-amerikanischen...weiterlesen »

Mann wollte gesünder leben – und landete in Psychiatrie

vor 4 Tagen - 20 Minuten

Drei Monate lang ersetzte ein Mann Speisesalz durch Bromsalz. Er befolgte damit einen Rat von ChatGPT – mit fatalen Folgen. Ein Mann befolgte einen ChatGPT-Tipp und erlitt eine Bromidvergiftung. Er ersetzte...weiterlesen »

Ein Mann möchte sich besser ernähren, fragt die KI ChatGPT – Endet mit einer Vergiftung aus dem 19. Jahrhundert

vor 4 Tagen - MeinMMO

Ein 60-jähriger US-Amerikaner wollte mithilfe von ChatGPT seine Ernährung verbessern – und endete stattdessen mit einer Vergiftung, die heute fast niemand mehr kennt, in der Notaufnahme. Was ist vorgefallen?...weiterlesen »

ChatGPT-Beratung führt zu Vergiftung aus dem 19. Jahrhundert

vor 4 Tagen - it-daily.net

Ein 60-Jähriger entwickelte nach drei Monaten eine Bromvergiftung, nachdem er blindlings den Ernährungsempfehlungen der KI gefolgt war. Was als harmloser Versuch begann, die Salzaufnahme zu reduzieren,...weiterlesen »

KLICKEN