back to top

Le AI possono soffrire? Il problema dei sistemi autocoscienti

Principles for Responsible AI Consciousness Research“, opera di Patrick Butlin e Theodoros Lappas, affronta la possibilità di sviluppare sistemi di AI dotati di coscienza e le possibili implicazioni etiche. Gli autori sottolineano che se tali sistemi fossero realizzati meriterebbero considerazione morale. Potrebbero essere infatti capaci di provare sofferenza. Anche le AI, o i personaggi generati dalle AI che danno solo l’impressione di essere coscienti, dovrebbero essere al centro di considerazioni morali.

Cosa fare contro la sofferenza delle AI?

Nel loro documento gli autori propongono cinque principi per una ricerca responsabile sull’AI cosciente:

Pubblicità
  • le organizzazioni dovrebbero definire chiaramente gli obiettivi delle loro ricerche sull’AI cosciente, assicurandosi che le procedure adottate siano etiche e trasparenti.
  • È fondamentale promuovere la condivisione delle scoperte e delle conoscenze acquisite, garantendo che le informazioni siano accessibili alla comunità scientifica e al pubblico nel rispetto delle normative vigenti.
  • Le comunicazioni pubbliche devono essere accurate e non fuorvianti, evitando di creare false percezioni sulla natura e le capacità dei sistemi.
  • Prima di intraprendere le ricerche o sviluppare nuove soluzioni è necessario valutare attentamente i potenziali rischi e adottare misure per mitigare eventuali conseguenze negative.
  • I protagonisti del settore dovrebbero impegnarsi pubblicamente a rispettare questi principi. È essenziale dimostrare responsabilità e trasparenza nelle proprie attività di ricerca sull’AI cosciente.

Intelligenze artificiali autocoscienti e considerazioni morali

Gli autori enfatizzano inoltre l’importanza per le organizzazioni coinvolte nella ricerca sull’AI di stabilire politiche e linee guida per orientare le scelte di ricerca, l’implementazione e la comunicazione pubblica riguardanti la coscienza. Anche se un’organizzazione sceglie di non studiare esplicitamente la coscienza nell’AI è comunque necessario disporre di politiche adeguate. Questo perché lo sviluppo di sistemi avanzati potrebbe portare anche involontariamente alla creazione di entità coscienti.

Il documento invita i soggetti coinvolti a promuovere impegni pubblici e volontari per promuovere l’adozione di questi principi, sottolineando che essi riguardano sia gli obiettivi che le procedure di ricerca, sia la condivisione delle conoscenze che le comunicazioni pubbliche. La loro adozione è particolarmente rilevante per le istituzioni che conducono ricerche sull’AI anche se non mirano esplicitamente a studiare o sviluppare dei sistemi autocoscienti.

Iscriviti a Google News Per restare sempre aggiornato seguici su Google News! Seguici
Pubblicità
Claudio Garau
Claudio Garau
Web developer, programmatore, Database Administrator, Linux Admin, docente e copywriter specializzato in contenuti sulle tecnologie orientate a Web, mobile, Cybersecurity e Digital Marketing per sviluppatori, PA e imprese.

Leggi anche...

Meta: il chip per l’AI ce lo facciamo da soli

Meta sta testando il suo primo chip progettato internamente...

Manus: l’agente AI cinese completamente autonomo

Manus è il primo sistema AI in grado di...

L’AI si testa anche con Super Mario Bros

Negli ultimi anni i ricercatori hanno utilizzato vari titoli...

DeepSeek anticiperà il lancio del modello R2

DeepSeek, la startup cinese che ha scosso il mercato...

Microsoft presenta i nuovi modelli AI Phi-4-mini e Phi-4-multimodal

Microsoft ha annunciato il rilascio di due nuovi modelli...

Mille artisti pubblicano un album contro la AI nella musica

Oltre mille musicisti britannici, tra cui artisti di spicco...
Pubblicità