OpenAI è il nome di un progetto fondato e sostenuto finanziariamente da Elon Musk i cui risultati sono andati forse troppo oltre le aspettative dei suoi promotori. A creare perplessita sarebbe stata in particolare GPT2, una tecnologia in grado di leggere un testo, comprenderlo, completarlo e utilizzare quanto appreso per proseguire la descrizione con nuovi elementi narrativi.
Le preoccupazioni di Elon Musk verso un intelligenza troppo intelligente
L’evoluzione di questo sistema avrebbe preoccupato in primis lo stesso Musk che in un suo recente tweet avrebbe rivelato di volersi dedicare ad altri progetti (Tesla e SpaceX), di non seguire più il lavoro degli sviluppatori di OpenAi da circa un anno e di non essere d’accordo con diverse decisioni prese da questi ultimi nel corso degli ultimi tempi.
Quando un’Intelligenza Artificiale diventa talmente "intelligente" da essere considerata pericolosa? E’ questo il dubbio che circola intorno a GPT-2, AI che dopo l’analisi di 8 milioni di pagine Web sarebbe stata in breve tempo capace di realizzare testi coerenti, credibili e apparentemente indistinguibili da quelli prodotti da un essere umano.
I rischi di un utilizzo in ambito editoriale
GPT-2 è in grado di prevedere una parola dopo aver analizzato quella precedente, ciò le permette di scrivere riguardo a qualsiasi argomento. I rischi connessi ad un suo utilizzo in ambito editoriale sono però elevati, questo perché ad una corretta stesura dei contenuti non corrisponderebbe una verifica sulla veridicità dei fatti narrati.
Per evitare che questa piattaforma venga utilizzata con lo scopo di sommergere la Rete di fake news, i componenti di Open AI hanno deciso di non renderne pubbliche le specifiche tecniche. La sensazione è che il progetto sia letteralmente sfuggito di mano ai suoi creatori e che Musk abbia voluto allontanarsene per evitare ulteriori coinvolgimenti.