Cosa può succedere di male nel seguire le indicazioni su delle ricette con ChatGPT? Questo, ad esempio, ed è davvero una di quelle cose da non credere.
Ricette con ChatGPT? C’è chi ha preso l’abitudine di fare così, di interpellare questa od una qualsiasi delle tante intelligenze artificiali esistenti, ed i motivi sono tanti. Con delle ricette con ChatGPT molte volte si riesce a trovare delle preparazioni inedite, mai sperimentate prima, e si ha così qualcosa di originale da potere cucinare. Ma in questo caso la cosa è stata fin troppo originale, al punto da travalicare l’aspetto di una normale preparazione gastronomica.

Infatti un uomo che aveva cominciato a consultare l’intelligenza artificiale ed a chiedere delle ricette a ChatGPT, ha avuto una brutta sorpresa. È rimasto addirittura avvelenato dopo i consigli che la IA gli aveva dato per modificare una sua preparazione. La vicenda è alquanto esemplificativa di quanto siano potenti i più ritrovati comunicativi e tecnologici.
Come chiedere cose a ChatGPT? Non così
Però anche di come possano risultare pericolosi, se utilizzati in maniera improvvida o comunque fin troppo alla leggera. Ad avere subito questo avvelenamento da ricette con ChatGPT è stato un uomo di 60 anni negli Stati Uniti. E pensare però che tutto era sorto da una richiesta innocua, ed anzi, votata a trovare una preparazione culinaria più salutare.
Questa persona infatti aveva intenzione di volere sostituire il sale, ed aveva quindi chiesto alla intelligenza artificiale in che modo fare. Lui poi ha messo in pratica questi “consigli” ma ha accusato un malore. E sulle prime ha creduto che fossero stati i suoi vicini di casa ad averlo avvelenato.

Con le sue gambe è stato comunque in grado di raggiungere il più vicino pronto soccorso, dove gli hanno diagnosticato dei sintomi da avvelenamento. Tra i quali allucinazioni visive ed auditive. Il consiglio incriminato è stato quello di utilizzare del bromuro di sodio invece del più comune cloruro di sodio, ovvero il sale.
Oltre al danno la beffa
Sembra però che parte della colpa sia stata proprio della vittima, la quale ha subito tutto questo. Infatti lui avrebbe formulato male la domanda, non specificando che la sua richiesta era destinata all’ambito domestico.
ChatGPT ha dato per scontato invece che tutto ciò fosse stato concepito per l’ambito industriale. Ma il bello è che questa cosa non è avvenuta dall’oggi al domani. Il ricovero si è reso necessario dopo un periodo di tre mesi nei quali l’uomo ha seguito alla lettera le indicazioni alimentari, per così dire, di ChatGPT.

Tre mesi di bromuro di sodio assunti ogni giorno che alla fine hanno portato ad un accumulo nell’organismo tale da superare i livelli di guardia.