L’azienda paga quando a sbagliare è la chatbot
11 Marzo 2024
Il Sole 24 Ore 22 febbraio 2024 di Giusella Finocchiaro
INTELLIGENZA ARTIFICIALE
Alla domanda ricorrente sulla responsabilità per gli errori commessi da un’applicazione di intelligenza artificiale risponde in modo semplice e lineare una recentissima sentenza canadese: Moffatt v. Air Canada, 2024 Bccrt 149, del 14 febbraio 2024, appena pubblicata. E la risposta si potrebbe riassumere limitandosi a citare il noto brocardo: «cuius commoda, eius et incommoda» (chi trae vantaggi da una situazione, deve sopportarne anche gli svantaggi). Un brocardo latino, dunque, risolve un problema creato dall’intelligenza artificiale.
Si tratta di una sentenza limpida, su una questione di limitata rilevanza economica, come spesso accade per i leading cases, ma che offre molti spunti di riflessione. Al centro, l’errore commesso da una chatbot, cioè da un software che, utilizzando l’intelligenza artificiale, formula risposte alle domande poste, simulando che si stia conversando con un essere umano.
La vicenda è molto semplice. Il signor Moffatt, a causa della perdita della nonna, deve acquistare un biglietto aereo. Air Canada propone tariffe scontate in caso di viaggio causato da un lutto. Moffatt interroga la chatbot di Air Canada che lo informa che lo sconto può essere chiesto anche dopo il viaggio, entro 90 giorni. Così fa il Sig. Moffatt, scoprendo poi, però, dopo alcune interlocuzioni con gli impiegati (umani) di Air Canada, che lo sconto avrebbe dovuto essere chiesto prima e che non può essere applicato retroattivamente.
Moffatt agisce in giudizio e richiede il risarcimento. Air Canada si difende argomentando che la responsabilità è della chatbot. Il giudice con un ragionamento molto lineare afferma che, benché la chatbot sia interattiva, tuttavia è sempre parte del sito di Air Canada e che ovviamente Air Canada è responsabile di tutte le informazioni che sono nel suo sito, che siano statiche o interattive. Non c’è ragione per cui, come argomenta ancora la compagnia, il cliente debba effettuare un
double check rispetto alle informazioni rese attraverso il sito o la chatbot.
Dunque il giudice Rivers non affronta neppure il tema della soggettività dell’applicazione di intelligenza artificiale, di grande fascino teorico, ma semplicemente e pragmaticamente constata che essa è parte del sito della società e dunque la società che ha scelto di avvalersene ne risponde. E taglia così il nodo gordiano. Ma se pure fosse stata ammessa la soggettività della chatbot, come ha cercato di sostenere Air Canada, chi avrebbe risarcito i danni al signor Moffatt? La risposta non può che essere la stessa: la società che ha scelto di inserire nel proprio sito la chatbot.
Questa decisione, anche perché è fra le prime, rappresenta un importante punto di partenza.
Il caso è circoscritto, come si è detto, ma utile a trarre alcune considerazioni.
Non sappiamo esattamente di che tipo di chatbot si trattasse, se fosse una chatbot del tipo oggi più utilizzato, che risponde a domande di base, automatizzate, o invece una chatbot in grado di imparare e personalizzare le risposte a seconda delle esigenze dell’utente, come ad esempio Siri o Alexa.
Ma il punto è che ne risponde chi se ne avvale, in questo caso mettendola a disposizione dei clienti, e che la questione della soggettività non è rilevante. A conclusioni non diverse si sarebbe giunti se un impiegato della società avesse fornito risposte ugualmente sbagliate, con la differenza che il datore di lavoro avrebbe potuto rivalersi sul dipendente, ma non sarebbe cambiata la risposta nei confronti del cliente. Anche in questo caso, non si può escludere, peraltro, una responsabilità di chi ha addestrato la chatbot o l’ha programmata.
Un’altra considerazione può trarsi da questa decisione. Non solo il giudice ha deciso -ovviamente- sulla base del diritto vigente, ma la decisione appare assolutamente adeguata. Come spesso si è sostenuto in queste pagine, non occorrono, dunque, sempre e in ogni caso nuove norme, per regolare nuovi fenomeni. Anzi, al contrario, è necessario valutare settore per settore, quando nuove norme siano necessarie. In questo caso, ampio spazio resta aperto alla disciplina contrattuale che potrà circoscrivere in vario modo e cercare di limitare la responsabilità per l’utilizzo dei sistemi di intelligenza artificiale.
Per il momento, dunque, in attesa di nuove sentenze, aspettiamoci nuovi fantasiosi disclaimer sui siti che usano chatbot.