Cosa sono le “allucinazioni” dell’IA – e perché sono pericolose nel diritto?

Gli strumenti di IA come ChatGPT sembrano molto sicuri di sé. Ma hanno un grande limite: le allucinazioni.
L’IA si inventa fatti, leggi o sentenze, pur parlando come se fossero vere.

Perché questo è così rischioso nel diritto?

1. Riferimenti legali sbagliati
L’IA può citare articoli inesistenti o non pertinenti.

2. Decisioni costose
HR o CEO di PMI possono sbagliare licenziamenti, contratti o salari.

3. Rischi legali
Basarsi su informazioni inventate può portare a contestazioni o danni economici.

4. Limitazioni dei fornitori
ChatGPT e altri strumenti vietano l’uso per scopi legali proprio per questo problema.

Conclusione:
Nel diritto servono 0% allucinazioni e 100% informazioni verificate.
I legal bot affidabili si basano su contenuti controllati da avvocati svizzeri – non su risposte inventate.