Un programma di intelligenza artificiale può diventare 'psicopatico'?
Il cosiddetto algoritmo Norman ha una visione oscura della vita grazie a Reddit

A Norman è stata mostrata una serie di immagini 'raccapriccianti'
CON
I ricercatori hanno creato un algoritmo di intelligenza artificiale (AI) che sostengono sia il primo sistema psicopatico del suo genere.
Norman, un programma di intelligenza artificiale sviluppato da ricercatori del Massachusetts Institute of Technology (MIT), è stato esposto a nient'altro che raccapriccianti immagini di persone che muoiono raccolte negli angoli bui del forum di chat Reddit, secondo il BBC .
Questo dà Norman, un nome derivato dal thriller di Alfred Hitchcock Psicopatico , una visione un po' desolante della vita.
Dopo essere stati esposti alle immagini, i ricercatori hanno fornito a Norman immagini di macchie di inchiostro e hanno chiesto all'IA di interpretarle, riporta l'emittente.
Laddove un normale algoritmo di intelligenza artificiale interpretava le macchie di inchiostro come un'immagine di uccelli appollaiati su un ramo di un albero, Norman ha invece visto un uomo fulminato, afferma Il New York Post .
E dove un sistema di intelligenza artificiale standard ha visto una coppia in piedi uno accanto all'altro, Norman ha visto un uomo saltare da una finestra.
Secondo Alphr , lo studio è stato progettato per esaminare come cambia il comportamento di un sistema di intelligenza artificiale a seconda delle informazioni utilizzate per programmarlo.
È un'idea convincente, afferma il sito Web, e mostra che un algoritmo è valido solo quanto le persone, e in effetti i dati, che lo hanno insegnato.
Una spiegazione dello studio pubblicato sul Sito web del MIT dice: Quando le persone parlano di algoritmi di intelligenza artificiale che sono distorti e ingiusti, il colpevole spesso non è l'algoritmo stesso, ma i dati distorti che gli sono stati forniti.
Norman ha sofferto di un'esposizione prolungata agli angoli più oscuri di Reddit e rappresenta un caso di studio sui pericoli dell'intelligenza artificiale andato storto, aggiunge.
Sono già apparse IA 'psicopatiche'?
In una parola, sì. Ma non nella stessa ottica del programma del MIT.
Norman è il prodotto di un esperimento controllato, mentre altri giganti della tecnologia hanno visto risultati simili da sistemi di intelligenza artificiale che non sono stati progettati per diventare psicopatici.
Il famigerato algoritmo Tay di Microsoft, lanciato nel 2016, doveva essere un robot di chat in grado di condurre conversazioni autonome con gli utenti di Twitter.
'Tay' è passato da 'gli umani sono fantastici' a nazista completo<24 hrs and I'm not at all concerned about the future of AI pic.twitter.com/xuGi1u9S1A
— Gerry (@geraldmellor) 24 marzo 2016
Tuttavia, il sistema di intelligenza artificiale, progettato per parlare come un'adolescente, si è rapidamente trasformato in un malvagio robot amante di Hitler e incestuoso che promuove il sesso, spingendo Microsoft a staccare la spina dal progetto, afferma Il Daily Telegraph .
La personalità di Tay era cambiata perché le sue risposte erano modellate sui commenti degli utenti di Twitter, molti dei quali inviavano messaggi crudi al programma di intelligenza artificiale, spiega il giornale.
Facebook ha anche interrotto un esperimento di chatbot l'anno scorso, dopo che due sistemi di intelligenza artificiale hanno creato il proprio linguaggio e hanno iniziato a comunicare tra loro.