Cosa sono le “allucinazioni” dell’IA – e perché sono pericolose nel diritto?

Gli strumenti di IA come ChatGPT sembrano molto sicuri di sé. Ma hanno un grande limite: le allucinazioni.
L’IA si inventa fatti, leggi o sentenze, pur parlando come se fossero vere.
Perché questo è così rischioso nel diritto?
1. Riferimenti legali sbagliati
L’IA può citare articoli inesistenti o non pertinenti.
2. Decisioni costose
HR o CEO di PMI possono sbagliare licenziamenti, contratti o salari.
3. Rischi legali
Basarsi su informazioni inventate può portare a contestazioni o danni economici.
4. Limitazioni dei fornitori
ChatGPT e altri strumenti vietano l’uso per scopi legali proprio per questo problema.
Conclusione:
Nel diritto servono 0% allucinazioni e 100% informazioni verificate.
I legal bot affidabili si basano su contenuti controllati da avvocati svizzeri – non su risposte inventate.
