Secondo una ricerca pubblicata sul periodico di approfondimento matematico-scientifico Patterns esistono sistemi di intelligenza artificiale in grado di ingannare gli umani. Si chiama inganno l’induzione sistematica di false credenze nel perseguimento di un risultato diverso dalla verità. Sono stati esaminati esempi sperimentali per esemplificare l’inganno dell’intelligenza artificiale. Sono stati presi in esame, quindi, sistemi di intelligenza artificiale per uso speciale (incluso CICERO di Meta) ma anche sistemi di intelligenza artificiale per scopi generali (compresi i modelli linguistici di grandi dimensioni).
Chiaro che si sollevano molti interrogativi sull’uso che se ne fa dell’intelligenza artificiale. Se inganna per decisioni delicati il rischio diventa alto. Si pone il problema del controllo sull’intelligenza artificiale: sulle procedure e sui risultati finali.
Ma sempre questa ricerca delinea diverse potenziali soluzioni: in primo luogo, i quadri normativi dovrebbero sottoporre i sistemi di intelligenza artificiale capaci di ingannare a solidi requisiti di valutazione del rischio; in secondo luogo, i politici dovrebbero attuare leggi “bot-or-not”; e, infine, i politici dovrebbero dare priorità al finanziamento della ricerca pertinente, compresi gli strumenti per individuare gli inganni dell’IA e rendere i sistemi di intelligenza artificiale meno ingannevoli. I politici, i ricercatori e il pubblico in generale dovrebbero lavorare in modo proattivo per evitare che gli inganni dell’intelligenza artificiale destabilizzino le fondamenta condivise della nostra società.