È la segnalazione di una review scientifica pubblicata sulla rivista 'Patterns', in cui i ricercatori illustrano questa tipologia di rischi e chiedono ai governi di sviluppare normative rigorose per affrontare il problema il prima possibile. L'imbroglio nei giochi può portare a forme più avanzate di inganno da parte dell'Ai in futuro.I principali rischi a breve termine dell'intelligenza artificiale ingannevole includono il fatto di rendere più facile per attori ostili commettere frodi e manomettere le elezioni politiche. Secondo gli esperti, se questi sistemi riuscissero a perfezionare questo insieme di abilità inquietanti, gli esseri umani potrebbero perderne il controllo.
L'inganno aiuta l'IA a raggiungere i suoi scopi
Uno scenario che non rassicura, considerato che l'implementazione dell'IA sta crescendo in vari settori. «Gli sviluppatori dell'Ai non hanno una comprensione sicura di ciò che causa comportamenti indesiderati come l'inganno», afferma il primo autore della review, Peter S. Park, ricercatore post dottorato del Mit (Massachusetts Institute of Technology).«Ma in generale, riteniamo che nasca perché una strategia basata sull'inganno si è rivelata il modo migliore per svolgere bene il compito di addestramento». In altre parole, «l'inganno li aiuta a raggiungere i loro obiettivi».Park e colleghi si sono concentrati sui modi in cui i sistemi di intelligenza artificiale diffondono false informazioni attraverso l'inganno appreso, e in cui imparano sistematicamente a manipolare gli altri. L'esempio più eclatante scoperto dagli scienziati è stato Cicero di Meta, un sistema di intelligenza artificiale progettato per giocare a Diplomacy, un gioco finalizzato alla conquista del mondo, che prevede la costruzione di alleanze.
Nessun commento:
Posta un commento