Di chi è la colpa?  Come percepiamo la responsabilità nell'uomo

Blog

CasaCasa / Blog / Di chi è la colpa? Come percepiamo la responsabilità nell'uomo

Jun 02, 2023

Di chi è la colpa? Come percepiamo la responsabilità nell'uomo

Riepilogo: anche quando le persone vedono gli assistenti basati sull’intelligenza artificiale semplicemente come strumenti, assegnano comunque a questi sistemi una responsabilità parziale per le decisioni prese. La ricerca ha indagato come i partecipanti percepivano

Riepilogo:Anche quando le persone vedono gli assistenti basati sull’intelligenza artificiale semplicemente come strumenti, assegnano comunque una responsabilità parziale a questi sistemi per le decisioni prese.

La ricerca ha studiato il modo in cui i partecipanti percepivano la responsabilità quando un conducente umano utilizzava un assistente basato sull’intelligenza artificiale rispetto a uno strumento di navigazione non basato sull’intelligenza artificiale. I partecipanti hanno ritenuto che gli assistenti IA siano parzialmente responsabili sia dei successi che dei fallimenti, pur affermando che questi sistemi sono semplicemente strumenti.

Lo studio getta nuova luce su come le persone applicano diversi standard morali per lodare e biasimare quando l’intelligenza artificiale è coinvolta nel processo decisionale.

Aspetti principali

Fonte:LMU

Anche quando gli esseri umani vedono gli assistenti basati sull’intelligenza artificiale esclusivamente come strumenti, attribuiscono loro una responsabilità parziale delle decisioni, come mostra un nuovo studio.

I futuri sistemi basati sull’intelligenza artificiale potrebbero guidare veicoli autonomi nel traffico senza alcun input umano. La ricerca ha dimostrato che le persone giudicano questi futuristici sistemi di intelligenza artificiale altrettanto responsabili quanto gli esseri umani quando prendono decisioni autonome sul traffico. Tuttavia, gli assistenti AI nella vita reale sono molto lontani da questo tipo di autonomia.

Forniscono agli utenti umani informazioni di supporto come aiuti alla navigazione e alla guida. Quindi, chi è responsabile in questi casi della vita reale quando qualcosa va bene o male? L'utente umano? O l'assistente AI?

Un team guidato da Louis Longin della Cattedra di Filosofia della Mente ha ora studiato come le persone valutano la responsabilità in questi casi.

"Abbiamo tutti assistenti intelligenti in tasca", afferma Longin.

“Tuttavia, gran parte delle prove sperimentali che abbiamo sulle lacune di responsabilità si concentrano su robot o veicoli autonomi in cui l’intelligenza artificiale è letteralmente al posto di guida, decidendo per noi. È essenziale indagare sui casi in cui siamo ancora noi a prendere la decisione finale, ma utilizziamo l’intelligenza artificiale più come uno strumento sofisticato”.

Filosofo specializzato nell'interazione tra esseri umani e intelligenza artificiale, Longin, lavorando in collaborazione con il suo collega Dr. Bahador Bahrami e la Prof.ssa Ophelia Deroy, Cattedra di Filosofia della Mente, ha studiato il modo in cui 940 partecipanti giudicavano un guidatore umano utilizzando un veicolo intelligente alimentato dall'intelligenza artificiale assistente verbale, un assistente tattile intelligente basato sull'intelligenza artificiale o uno strumento di navigazione non basato sull'intelligenza artificiale. I partecipanti hanno anche indicato se ritengono che l'ausilio alla navigazione sia responsabile e in che misura si tratti di uno strumento.

Stato ambivalente degli assistenti intelligenti

I risultati rivelano un’ambivalenza: i partecipanti affermavano con forza che gli assistenti intelligenti erano solo strumenti, ma li vedevano come parzialmente responsabili del successo o dei fallimenti degli autisti umani che li consultavano. Nessuna divisione di responsabilità di questo tipo è avvenuta per lo strumento non alimentato da intelligenza artificiale.

Non meno sorprendente per gli autori è stato il fatto che gli assistenti intelligenti fossero anche considerati più responsabili di risultati positivi piuttosto che negativi.

“Le persone potrebbero applicare standard morali diversi per la lode e il biasimo. Quando un incidente viene evitato e non ne consegue alcun danno, gli standard vengono allentati, rendendo più facile per le persone attribuire crediti piuttosto che colpe a sistemi non umani”, suggerisce il dottor Bahrami, esperto di responsabilità collettiva.

Il ruolo della lingua non è rilevante

Nello studio, gli autori non hanno trovato alcuna differenza tra gli assistenti intelligenti che utilizzavano il linguaggio e quelli che allarmavano gli utenti tramite una vibrazione tattile del volante.

"I due hanno fornito le stesse informazioni in questo caso, 'Ehi, attento, c'è qualcosa in più', ma ovviamente ChatGPT in pratica fornisce molte più informazioni", afferma Ophelia Deroy, la cui ricerca esamina i nostri atteggiamenti contrastanti nei confronti dell'intelligenza artificiale come forma di credenze animiste.

In relazione alle informazioni aggiuntive fornite da nuovi sistemi di intelligenza artificiale basati sul linguaggio come ChatGPT, Deroy aggiunge: “Più ricca è l’interazione, più facile è antropomorfizzare”.

“In sintesi, i nostri risultati supportano l’idea che gli assistenti AI sono visti come qualcosa di più di semplici strumenti di raccomandazione, ma rimangono comunque lontani dagli standard umani”, afferma Longin.