giovedì, Settembre 19, 2024

L’intelligenza artificiale probabilmente non porterà l’umanità all’estinzione, ma può essere dannosa

Oltre 350 esperti di Tecnologia, ricercatori di Intelligenza Artificiale e leader del settore hanno firmato il Dichiarazione sul rischio AI pubblicato dal Centro per la Sicurezza dell’IA La settimana passata. È un avvertimento a frase singola molto breve e succinto per tutti noi:

Mitigare il rischio di estinzione dell’IA dovrebbe essere una priorità globale insieme ad altri rischi su scala sociale come le pandemie e la guerra nucleare.

Quindi gli esperti di intelligenza artificiale, compresi gli ingegneri pratici di Google e Microsoft che stanno attivamente scatenando l’IA nel mondo, pensano che l’IA abbia il potenziale per essere un evento di estinzione globale allo stesso modo della guerra nucleare. Accidenti.

Devo ammettere che ho pensato la stessa cosa che hanno fatto molte persone quando hanno letto per la prima volta questa affermazione: è un mucchio di stronzate. Sì, l’intelligenza artificiale ha molti problemi e penso che sia un po’ presto per fare affidamento su di essa tanto quanto stanno facendo alcune società tecnologiche e di Notizie, ma quel tipo di iperbole è semplicemente sciocco.

Poi ho fatto un po ‘di Bard Beta Lab AI Googling e ho scoperto diversi modi in cui l’IA è già dannosa. Alcuni dei più vulnerabili della società sono ancora più a rischio a causa dell’IA generativa e di quanto siano effettivamente stupidi questi computer intelligenti.

Associazione nazionale per i disturbi alimentari ha licenziato i suoi operatori di helpline il 25 maggio 2023 e li ha sostituiti con Tessa il ChatBot. I lavoratori erano nel bel mezzo della sindacalizzazione, ma NEDA afferma che “questo era un cambiamento atteso da tempo e che l’IA può servire meglio coloro che hanno disturbi alimentari” e non aveva nulla a che fare con sei membri dello staff retribuiti e volontari assortiti che cercavano di unirsi al sindacato.

Il 30 maggio 2023, NEDA disabilitato Tessa il ChatBot perché offriva consigli dannosi a persone con gravi disturbi alimentari. Ufficialmente, NEDA è “preoccupata e sta lavorando con il team tecnologico e il gruppo di ricerca per indagare ulteriormente su questo; quel linguaggio è contrario alle nostre politiche e convinzioni fondamentali come organizzazione per i disturbi alimentari”.

Negli Stati Uniti ci sono 30 milioni di persone con gravi disturbi alimentari e 10.200 moriranno ogni anno come diretta conseguenza di essi. Uno ogni ora.

Una foto di un gatto

Poi abbiamo Koko, un’organizzazione no profit per la salute mentale ha usato l’intelligenza artificiale come esperimento su adolescenti suicidi. Sì, avete letto bene.

Gli utenti a rischio sono stati indirizzati al sito Web di Koko dai social media, dove ciascuno è stato inserito in uno dei due gruppi. A un gruppo è stato fornito un numero di telefono di una vera hotline di emergenza dove si sperava potessero trovare l’aiuto e il supporto di cui avevano bisogno.

L’altro gruppo ha ottenuto l’esperimento di Koko in cui hanno dovuto fare un quiz e gli è stato chiesto di identificare le cose che hanno scatenato i loro pensieri e cosa stavano facendo per affrontarli.

Una volta terminato, l’intelligenza artificiale ha chiesto loro se avrebbero controllato le notifiche del telefono il giorno successivo. Se la risposta era sì, venivano spinti su uno schermo che diceva “Grazie per quello! Ecco un gatto!” Naturalmente, c’era l’immagine di un gatto e, a quanto pare, Koko e il ricercatore di intelligenza artificiale che hanno contribuito a creare questo pensano che in qualche modo migliorerà le cose.

Non sono qualificato per parlare dell’etica di situazioni come questa in cui l’intelligenza artificiale viene utilizzata per fornire diagnosi o aiuto a persone alle prese con la salute mentale. Sono un esperto di tecnologia che si concentra principalmente sugli Smartphone. La maggior parte degli esperti umani concorda sul fatto che la pratica è piena di problemi, però. So che il tipo sbagliato di “aiuto” può e farà peggiorare di gran lunga una brutta situazione.


Se stai lottando con la tua salute mentale o senti di aver bisogno di aiuto, chiama o invia un messaggio al 988 per parlare con un essere umano che può aiutarti.


Questo tipo di Storie racconta due cose: l’intelligenza artificiale è molto problematica se utilizzata al posto di persone qualificate in caso di crisi, e anche le persone reali che dovrebbero saperne di più possono essere stupide.

L’intelligenza artificiale nel suo stato attuale non è pronta per essere utilizzata in questo modo. Neanche vicino. La professoressa dell’Università di Washington Emily M. Bender fa un ottimo punto Startup-uses-ai-chatbot-to-provide-mental-health-counseling-and-then-realizes-it-feels-weird” data-url=”https://www.vice.com/en/article/4ax9yw/startup-uses-ai-chatbot-to-provide-mental-health-counseling-and-then-realizes-it-feels-weird”>una dichiarazione a Vice:

“I modelli linguistici di grandi dimensioni sono programmi per generare testo dal suono plausibile dati i loro dati di addestramento e un prompt di input. Non hanno empatia, né alcuna comprensione del linguaggio che producono, né alcuna comprensione della situazione in cui si trovano. Ma il testo che produrre suoni plausibili e quindi è probabile che le persone gli attribuiscano un significato. Lanciare qualcosa del genere in situazioni delicate significa correre rischi sconosciuti.

I pensieri di Google Bard sull'intelligenza artificiale
(Credito immagine: futuro)

Voglio negare ciò che vedo e leggo così posso fingere che le persone non stiano prendendo scorciatoie o cercando di risparmiare denaro utilizzando l’intelligenza artificiale in modi così dannosi. La sola idea mi disgusta. Ma non posso perché l’intelligenza artificiale è ancora stupida e apparentemente lo sono anche molte persone che vogliono usarla.

Forse l’idea di un evento di estinzione di massa dovuto all’intelligenza artificiale non è poi così fuori dal comune.

ARTICOLI COLLEGATI:

ULTIMI ARTICOLI: