10 motivi: perché ChatGPT e Claude non possono rispondere in modo affidabile a domande legali

ChaGPT e Claude o altri modelli di fondazione da soli non saranno mai in grado di rispondere alle tue domande legali in modo affidabile.

Le ragioni di ciò sono:

  1. Nessuna verifica legale
    Le risposte non sono state verificate dagli avvocati e possono essere professionalmente errate o fuorvianti.
  2. Nessun accesso ai testi legali e alle sentenze correnti
    I modelli funzionano con i dati di formazione, non con fonti ufficiali costantemente aggiornate come le sentenze dell'OR, dello ZGB o dei tribunali federali.
  3. Mancanza di conoscenza contestuale del diritto svizzero
    I sistemi legali sono locali. I modelli di fondazione si basano spesso sul diritto statunitense o globale, non su specifiche svizzere.
  4. allucinazioni (= risposte sbagliate)
    Le modelle «inventano» risposte quando non sono sicure: questo è molto rischioso nel settore legale.
  5. Nessuna responsabilità o tracciabilità
    Non vi è alcuna responsabilità o documentazione legale sul modo in cui è arrivata una risposta.
  6. Non sempre aggiornato
    I modelli non sono a conoscenza di modifiche legislative o nuove sentenze in base al loro livello di formazione (ad esempio ChatGPT alla fine del 2023).
  7. Problemi di protezione dei dati in casi sensibili
    Per questioni legali riservate, nessun testo può essere semplicemente inserito in un modello di intelligenza artificiale generico.
  8. Mancanza di dettagli e sfumature
    Le risposte legali richiedono spesso interpretazioni differenziate: i modelli di solito emettono testi standard superficiali.
  9. Nessuna citazione o base legale
    I modelli di fondazione non forniscono articoli legislativi diretti, paragrafi o sentenze dei tribunali: non sai su cosa si basano.

10° Non sostituisce la consulenza legale
Ciò che conta in contesti legali è: affidabilità, tracciabilità e usabilità in tribunale. I modelli Foundation non lo offrono.