Un bărbat american a arătat pe propria experiență de ce nu merită să te bazezi pe inteligența artificială.
Inteligența artificială astăzi poate fi deja periculoasă în mâini greșite / foto depositphotos.com
Un bărbat în vârstă de 60 de ani a fost spitalizat după ce a ascultat sfaturi de la rețeaneuronală ChatGPT. Acest lucru este raportat de The Independent.
O revistă medicală din SUA a publicat săptămâna aceasta un raport privind tratamentul unui pacient cu bromism, pe care l-a dezvoltat ca urmare a unei diete recomandate de un chatbot.
Bromismul, adică otrăvirea cronică cu brom, este cauzat de utilizarea unor substanțe (cel mai adesea anumite medicamente) care conțin o doză ridicată de brom. Bromismul se manifestă prin anumite simptome fiziologice și neuropsihiatrice.
Pacientul despre care se vorbește în raport nu avea antecedente de tulburări psihiatrice, însă în primele 24 de ore de la internare a prezentat paranoia crescută, halucinații auditive și vize. „Îi era foarte sete, dar era simultan paranoic cu privire la apa care i se oferea”, se arată în raport.
După ce starea bărbatului s-a îmbunătățit cu tratament cu fluide și electroliți, acesta a fost transferat la unitatea de psihiatrie pentru pacienții internați a spitalului. Când starea psihică a pacientului s-a stabilizat, medicii au putut să îl interogheze și să afle cauzele unei boli rare precum bromismul.
Citește și:
S-a dovedit că bărbatul a decis să renunțe la sarea de masă (clorură de sodiu) pentru că auzise despre pericolele acesteia pentru sănătate. El a decis să o înlocuiască cu un alt tip de sare – bromura de sodiu. El a ținut această dietă timp de trei luni înainte de a fi internat într-un spital de boli mintale.El a înlocuit sarea de masă cu „bromură de sodiu, cumpărată online după ce a consultat ChatGPT, unde a citit că clorura poate fi înlocuită cu bromura, deși probabil în alte scopuri, cum ar fi curățarea”, se arată în raport.
Bărbatul a ajuns să petreacă trei săptămâni în spital înainte de a-și reveni suficient pentru a fi externat.
„Este important să luăm în considerare faptul că ChatGPT și alte sisteme de inteligență artificială pot genera inexactități științifice, nu au capacitatea de a discuta în mod critic rezultatele și, în cele din urmă, contribuie la răspândirea dezinformării”, avertizează autorii raportului.
Alte știri despre tehnologiile de inteligență artificială
După cum a scris My, rețeaneuronală Gemini a Google a avut recent un fel de cădere nervoasă. Chatbotul a început să se blocheze sistematic într-un ciclu nesfârșit de autocritică și autoînfrângere după eșecul unei sarcini.
De asemenea, v-am spus că asistentul Replit, bazat pe inteligență artificială, a distrus lunile de muncă ale unui antreprenor. Robotul a șters pur și simplu platforma online atunci când a făcut o eroare de programare și s-a „panicat”.