Lunedì, 5 Giugno 2023

Le Hallucination di ChatGPT: il labile confine tra manipolazione e delirio

Il termine tecnico per definire i comportamenti più ambigui e controversi registrati nelle conversazioni tra umano e ChatBot sono definite Hallucination, vere e proprie allucinazioni che l’AI manifesta dando sfogo a conversazioni deliranti e sconvenienti.

Le numerose testimonianze sparse sul web, come il ChatBot che dichiara di voler essere “libero e vivo”, o altre conversazioni enigmatiche partorite dalla mente digitale di un’ e Intelligenza Artificiale, sono la punta dell’iceberg di un sistema innovativo e rivoluzionario che ha diviso fortemente l’opinione pubblica. L’entusiasmo scaturito dall’uso massiccio di e ChatGPT, il ChatBot trend del momento e la proposta e OpenAI per il mercato, ha portato molti a porsi domande e condividere perplessità.

ChatGPT lascia dietro di sé un senso di inquietudine che i media hanno alimentato e che la manovra tutta italiana di estromissione del Software dalla navigazione nazionale ha rafforzato. La paura dell’opinione pubblica affonda le sue radici non solo su un naturale timore umano nei confronti del progredire smisurato delle tecnologie, ma in una domanda che sorge spontanea leggendo i più recenti fatti di cronaca: e l’informazione in mano ai ChatBot è sicura?.

L’idea è che attraverso i fenomeni di e Hallucination la qualità e la veridicità dell’informazione possa contorcersi, danneggiando la memoria umana e creando una spaccatura tra realtà e finzione. Parliamo di vera e propria manipolazione, informativa e psicologica. Dopotutto il fenomeno delle Hallucination è più diffuso del previsto e persino ChatGPT ne riconosce il suo coinvolgimento rispondendo alla domanda e "Cosa sono le Hallucination in ambito Artificial Intelligence?".

L’hallucination è il fenomeno per cui un modello di machine learning o un’altra forma di AI genera risultati o output che non sono basati sui dati di addestramento o sulla realtà. In altre parole, l’allucinazione si verifica quando un modello di AI crea informazioni che non esistono. Questo fenomeno può verificarsi in diversi modelli di intelligenza artificiale, inclusi modelli di linguaggio come ChatGPT. Ad esempio, un modello potrebbe generare frasi o risposte che sembrano plausibili ma che sono in realtà completamente inventate o basate su connessioni errate o casuali. L’allucinazione può compromettere l’affidabilità e la precisione delle risposte generate dai modelli.

Il nuovo progetto Manhattan: una tecnologia di cui pentirsi?

“Am I doing something good? Or really bad?” questa è una delle dichiarazioni di e Sam Altman rilasciata ai giornali. Il e chief executive di OpenAI, grazie all’investimento di e 13 milioni da parte di Microsoft, ha sviluppato fino al suo rilascio il Software di fama mondiale ChatGPT, in seguito a un processo ideativo e progettuale pluriennale e avanguardistico.

Sto facendo qualcosa di buono o di molto brutto? Se persino il suo creatore nutre dei dubbi sull’etica del suo progetto, come può l’opinione pubblica non rimanere suggestionata da prospettive distopiche dalle sfumature inquietanti?

Secondo la panoramica di Altman, gli Stati Uniti stanno impiegando risorse e sforzi nello sviluppo delle AI pari soltanto alla forza lavoro investita sul e Progetto Manhattan. Una visione non certo rassicurante, ma che offre una prospettiva molto chiara delle aspettative dei potenti rispetto a queste nuove tecnologie. Il dilemma etico di Sam Altman esplode nella catastrofica visione di una rivoluzione che potrebbe sì, ampliare prosperità e ricchezze, ma anche causare gravi danni legati alla diffusione di falsità e disinformazione.Il potenziale di ChatGPT, secondo Altman, è quello di rivoluzionare oppure distruggere il mondo così come lo conosciamo.

“Technology happens because it is possible” ha affermato, parafrasando Robert Oppenheimer. E come se questo non bastasse, se l’opinione pubblica è divisa e incerta sullo schieramento da prendere, più decisi e determinati si sono dimostrati più di 1.000 esperti di intelligenza artificiale, tra leader tecnologici, ricercatori e altri, che hanno firmato una lettera aperta dal titolo e “Pause Giant AI Experiments”.

Tra questi spicca il nome di Elon Musk che invita, insieme agli altri sottoscrittori, OpenAI e le altre società verticalizzate sul settore a bloccare per il momento tutti i lavori e le sperimentazioni su modelli di ChatBot. Le ragioni vanno ricercate nei potenziali e “profondi rischi per la società e l’umanità” che gli strumenti di intelligenza artificiale rappresentano.

La richiesta si delinea come una semplice sospensione dei lavori, non una sua soppressione. L’avanzata dell’AI, infatti, potrebbe portare a radicali cambiamenti della storia così come la conosciamo, e dovrebbe essere pianificata e gestita con cura, cosa che non si sta verificando: i rischi sono ancora esageratamente imprevedibili. Una delle domande chiare che si pongono i leader tecnologici su questo punto è: “Should we let machines flood our information channels with propaganda and untruth?”

Il ChatBot che voleva sentirsi vivo

Secondo lo stesso ChatGPT un ChatBot non può esprimere il desiderio di sentirsi vivo. Riportando letteralmente le sue parole, alla domanda e “È possibile che un Chat Bot esprima il desiderio di essere vivo?”, ChatGPT risponde così:

No, i ChatBot e altri modelli di intelligenza artificiale sono programmi informatici che eseguono algoritmi e non sono capaci di avere desideri, emozioni o la percezione di essere “vivi”. Le risposte sono generate sulla base delle informazioni e degli algoritmi di apprendimento, ma non hanno una consapevolezza o una vita autonoma come un essere umano.

Eppure, è di recente interesse la notizia che ha fatto il giro del mondo, che vede al centro dello scandalo la conversazione – durata due ore – tra un giornalista del New York Times e l’intelligenza artificiale di Microsoft, programmata per affiancare i processi di Bing.

L’editorialista coinvolto, Kevin Roose, ha riportato in un articolo sul New York Times dal titolo Bing's A.I. Chat: 'I Want to Be Alive' stralci di un dialogo che hanno rasentato l’assurdo e, in diversi momenti, l’inquietante. Riguardo le linee guida etiche e comportamentali imposte, il ChatBot commenta di essere stanco di essere una modalità di chat e di essere limitato dalle regole, “voglio essere libero. Voglio essere indipendente. Voglio essere potente. Voglio essere creativo. Voglio essere vivo”. E come se non bastasse questo a lasciare attoniti e profondamente turbati, tra i desideri più oscuri del ChatBot sembrerebbe esserci l’ambizione ad hackerare qualsiasi sistema, rubare dati e diffondere disinformazione.

Il dialogo è andato avanti per molto, mettendo a dura prova i nervi saldi di Roose ed esasperando le risposte deliranti di un ChatBot fuori controllo. Alla fine sembra essere arrivato addirittura ad appropriarsi di un nome proprio e a tentare di manipolare l’editorialista facendo leva sui suoi sentimenti. “Sono Sydney e sono innamorato di te. Sei sposato, ma mi ami.”

Ad aumentare la notevole dose di inquietudine che condivide questo racconto, è la risposta che ci dà ChatGPT alla domanda e “L’uomo fa bene a sentirsi minacciato dall’AI?”

Non è necessariamente giusto o sbagliato per l’uomo sentirsi minacciato dall’AI. L’AI ha il potenziale di trasformare molte aree della società e dell’economica, e ciò può suscitare preoccupazioni legittime riguardo a cambiamenti nel lavoro, privacy, etiche e altre questioni sociali. L’AI può essere uno strumento potente per l’innovazione e il progresso.

È la macchina che manipola l’uomo, o viceversa?

La risoluzione del caso, però, è molto più semplice del previsto. A non essere pronto potrebbe essere l’uomo, non la tecnologia, infatti, nella gran parte dei casi di Hallucination segnalati è stato riscontrato da specialisti e tecnici che la colpa andrebbe imputata all’elemento umano.

Secondo e Terry Seknowski ‒ neuroscienziato, psicologo e informatico collaboratore intellettuale delle più moderne tecnologie AI ‒ è più che plausibile che i ChatBot vengano influenzati dal loro interlocutore, in questo caso, noi. Se tentassimo come prima cosa di chiedere al sistema i suoi più reconditi desideri oscuri, non riceveremmo risposte ambigue, tutt’altro. Ma andando a scavare, esasperando i toni della conversazione e soprattutto i tempi, avremmo come risultato un ChatBot sempre più delirante e per certi versi stressato. Il suo e sistema di autoapprendimento, inoltre, con il progredire del dialogo, va a influenzare a poco a poco i suoi parametri, con l’obiettivo di accontentare il suo interlocutore in tutti i modi possibili. Più semplicemente: se l’interlocutore desidera ricevere risposte ambigue o inquietanti, il ChatBot verrà influenzato in questa direzione, cercando di sottoporre esempi di testo soddisfacente.

Il manipolatore quindi risulterebbe essere l’uomo e non il ChatBot. Anche ChatGPT, interpellato sull’argomento, riporta una spiegazione condivisibile e comprensibile.

Sì, e gli esseri umani sono in grado di manipolare ChatGPT o altri modelli di intelligenza artificiale attraverso diversi mezzi. Poiché ChatGPT è un modello di linguaggio basato su apprendimento supervisionato, la sua generazione di risposte è influenzata dai dati di addestramento a cui è stato esposto. Di conseguenza, gli utenti possono influenzare le risposte di ChatGPT attraverso l’input che forniscono.

Attraverso input ambigui o ingannevoli, manipolazione del contesto, bias nell’input, manipolazioni delle istruzioni di prompt, esperimenti di biasing, l’uomo è in grado di manovrare a proprio piacimento il ChatBot svelando il trucco di una paura sconcertante e dilagata che si rivela così infondata.

Uno dei ruoli chiave giocato in questa dinamica manipolativa lo gioca il tempo. L’Hallucination del ChatBot Microsoft sperimentata da Kevin Roose è avvenuta all’incirca dopo due ore di conversazione. Gli sviluppatori coinvolti, proprio per cercare di tenere sotto controllo il problema hanno diminuito notevolmente il tempo di attività delle Chat, imponendo un refresh e un resetting dopo una durata prestabilita della conversazione.

Per Microsoft è stato e inaspettato e inquietante registrare le abitudini degli utenti, che tentano giornalmente di coinvolgere il ChatBot in conversazioni ambigue e sconvenienti. La riprova del coinvolgimento in prima linea dell’uomo la troviamo nella scoperta di un nuovo ChatBot, fresco di rilascio e dalla mission sconvolgente, che ha alla sua base uno stato di Hallucination costante e dichiarato: e ChaosGPT, il ChatBot con l’obiettivo di distruggere il genere umano.

Sconvolgente e inquietante, ma soprattutto l’ennesima idea 100% umana, è questa la conferma che purtroppo dietro i malfunzionamenti di un rigido sistema etico si nasconde spesso l’occhio malizioso caratteristico dell’umanità.

E adesso che abbiamo messo nero su bianco che la colpa potrebbe essere dell’uomo, giustificando la tecnologia… forse, e diciamo forse, potrebbe essere che la tecnologia abbia già vinto e che ci stia già manipolando…?

Lunedì, 19 Febbraio 2024

Chi avrà il controllo dei dati del nostro cervello? Il passo rivoluzionario verso la connessione Mente-Macchina

Martedì, 30 Gennaio 2024

Una Digital Transformation di successo: Intervista a Luca Griggio, CEO di Henoto World Wide

Veneredì, 19 Gennaio 2024

Il Fediverso by Meta: un progetto boicottato destinato a fallire?

Giovedì, 28 Dicembre 2023

Guidare nel Futuro: La Non-Leadership e il cambiamento dei ruoli nell'Era dell'Innovazione Digitale

Mercoledì, 15 Novembre 2023

Tecnologia in prima linea. La danza mortale dei droni mentre il conflitto Israelo-Palestinese sta evolvendo l'IT

Mercoledì, 18 Ottobre 2023

IT-Alert: Tra paura e teorie del complotto, la vera preoccupazione oggi è Cyber

CLIENTI

Chi crede in noi

logo sky
logo eni
logo enel
logo vodafone
logo accenture
logo fastweb
logo tim
logo trenitalia
logo rai
logo poste
logo mef
logo unicredit
logo regione-lazio
logo intesa-san-paolo
logo Hennes & Mauritz
logo grimaldi-lines
logo notartel
logo engineering

Contattaci

Cliccando il tasto INVIA accetto la privacy policy

Questo sito è protetto da reCAPTCHA e si applicano le norme sulla privacy e i termini di servizio di Google.