martedì, Aprile 30, 2024

Assistenti digitali: la convinzione che Alexa, Google Assistant e Siri pensino come gli umani

**ASSISTENTI DIGITALI: BAMBINI SOVRAGGIUDICANO LE LORO CAPACITÀ**

Gli assistenti digitali come Alexa, Google Assistant e Siri sono sempre più presenti nelle nostre vite. Quanti di noi posseggono dispositivi smart che ne integrano le funzionalità o si avvalgono delle loro caratteristiche, ad esempio, dalla propria autovettura? Con l’avvento dei modelli generativi, le abilità degli assistenti digitali che già conosciamo tenderanno ad ampliarsi a dismisura.

Un recente studio condotto in Scozia e pubblicato sulla rivista scientifica Computers and Education: Artificial Intelligence, suggerisce che molti bambini sovrastimino le capacità degli assistenti digitali e dei tool basati sull’Intelligenza Artificiale.

**ATTENZIONE A NON SOVRAGSTIMARE LE CAPACITÀ DI ALEXA, GOOGLE ASSISTANT, SIRI E DEI MODELLI GENERATIVI**

Dei 166 bambini intervistati per lo studio, il 93% aveva uno smart speaker a casa. Hanno dichiarato di utilizzare i dispositivi per ascoltare musica, fare domande, cercare informazioni, ottenere aiuto con i compiti, ascoltare barzellette e Storie. Stando alle conclusioni di una ricerca di Statista, si stima che il 57% delle famiglie possiederà almeno un dispositivo per la Smart Home entro il 2025.

A dispetto della loro familiarità con questi dispositivi, o forse proprio a causa di essa, molti degli intervistati hanno dichiarato di essere incerti sul fatto che Alexa, Google Assistant, Siri e strumenti simili possiedano qualità simili agli esseri umani, come emozioni e capacità decisionali. Appena meno di un terzo credeva che gli smart speaker possano “pensare” per conto proprio, mentre il 40% riteneva che, forse, potrebbero essere in grado di farlo.

“È necessario insegnare l’alfabetizzazione AI nelle scuole ai bambini, mentre i produttori di oggetti tecnologici devono fare attenzione affinché i loro prodotti basati sull’intelligenza artificiale non ingannino i più piccoli, facendo loro credere che siano simili agli esseri umani“, ha dichiarato Judy Robertson, coautrice dello studio e presidente della didattica incentrata sull’apprendimento digitale presso l’Università di Edimburgo. “Spesso l’IA è progettata per apparire più umana e intelligente di quanto non sia in realtà, il che è molto confusionario per i bambini“.

Parlando di modelli generativi, ad esempio di GPT (Generative Pre-trained Transformer, OpenAI), abbiamo visto quali errori commette più spesso ChatGPT e perché è bene non fidarsi.

**I RISULTATI DELLO STUDIO, PIÙ NEL DETTAGLIO**

Solo l’1% dei bambini ha effettivamente classificato i dispositivi come “umani”. Circa l’80% li ha classificati come “intelligenze artificiali” e il 15% si è espresso battezzandoli semplicemente “oggetti”. Dato che circa i due terzi dei ragazzi credevano che i sistemi potessero pensare come noi, i ricercatori affermano che lo studio mette in luce il rischio che i bambini sovrastimino l’affidabilità e le capacità dei sistemi di IA.

“I risultati rivelano l’importanza di aumentare la consapevolezza e la comprensione dei bambini sulla Tecnologia supportata dall’intelligenza artificiale per garantire interazioni sicure e responsabili con le tecnologie di ultima generazione“, ha dichiarato Valentina Andries, coautrice dello studio. “A questo si aggiunge l’importanza crescente nel contesto attuale della tecnologia di IA generativa per vari scopi, incluso l’ambito educativo“.

Tutti gli utenti, indipendentemente dalla loro età, dovrebbero sviluppare un’immagine accurata di ciò che sono queste tecnologie e di come possano utilizzarle al meglio, in modo sicuro e responsabile.

Considerata la crescita vorticosa in termini di diffusione dei modelli generativi, “non c’è stato molto tempo per i ricercatori per monitorare quali possano essere gli impatti che le tecnologie emergenti potrebbero avere sullo sviluppo cognitivo e sociale dei bambini“, ha aggiunto Madeline Reinecke, ricercatrice presso l’Università di Oxford.

ARTICOLI COLLEGATI:

ULTIMI ARTICOLI: