vor einem Tag - Watson
ChatGPT sollte man nicht blind vertrauen, schon gar nicht, wenn es um Gesundheitstipps geht. Das musste ein 60-jähriger Mann auf die harte Tour lernen, wie eine Fallschilderung in der US-amerikanischen...weiterlesen »
Watson
20 Minuten
MeinMMO
it-daily.net
vor 4 Tagen - 20 Minuten
Drei Monate lang ersetzte ein Mann Speisesalz durch Bromsalz. Er befolgte damit einen Rat von ChatGPT – mit fatalen Folgen. Ein Mann befolgte einen ChatGPT-Tipp und erlitt eine Bromidvergiftung. Er ersetzte...weiterlesen »
vor 4 Tagen - MeinMMO
Ein 60-jähriger US-Amerikaner wollte mithilfe von ChatGPT seine Ernährung verbessern – und endete stattdessen mit einer Vergiftung, die heute fast niemand mehr kennt, in der Notaufnahme. Was ist vorgefallen?...weiterlesen »
vor 4 Tagen - it-daily.net
Ein 60-Jähriger entwickelte nach drei Monaten eine Bromvergiftung, nachdem er blindlings den Ernährungsempfehlungen der KI gefolgt war. Was als harmloser Versuch begann, die Salzaufnahme zu reduzieren,...weiterlesen »