sabato, Luglio 13, 2024

Vivaldi: le ragioni del rifiuto dell’intelligenza artificiale nei browser

Vivaldi: NO ALL’Intelligenza Artificiale NEL Browser. ECCO PERCHÉ

Negli ultimi tempi, l’integrazione nei browser Web di tecnologie basate su Large Language Model (LLM) è diventata sempre più diffusa. Vivaldi, browser noto per la sua attenzione alla privacy e alla personalizzazione dell’esperienza dell’utente, ha deciso di non seguire questa tendenza. Julien Picalausa, sviluppatore Software di Vivaldi fin dal 2017, spiega le ragioni di questa scelta, mettendo in luce i problemi fondamentali legati all’uso dei LLM.

LA POSIZIONE DI VIVALDI SUI LLM È LARGAMENTE INTRANSIGENTE

Picalausa riassume brevemente il funzionamento dei LLM (per una disamina approfondita, suggeriamo di fare riferimento all’articolo riportato in apertura) e ricorda che essi sono addestrati su una vasta quantità di testi provenienti da diverse fonti, cercando di prevedere quale termine segue una determinata sequenza di parole (meglio usare token). Il processo presuppone una modellazione probabilistica del linguaggio e l’uso di filtri per rendere l’output più gradevole e plausibile. Secondo Vivaldi, tuttavia, la natura stessa di questi modelli generativi porta a due problemi fondamentali: violazioni del copyright e della privacy oltre alla generazione di “bugie plausibili”.

VIOLAZIONI DEL COPYRIGHT E DELLA PRIVACY

Il volume di testi provenienti da fonti pubbliche può inoltre contenere dati personali che potrebbero essere riproposti dai modelli o rielaborati in maniera imperfetta così che a una persona in carne ed ossa siano attribuite informazioni non pertinenti (questo si ricollega al punto successivo).

BUGIE PLAUSIBILI

I moderni LLM utilizzano un secondo stadio di filtraggio per intervenire sul contenuto dell’output, ovvero sulle informazioni restituite all’utente. La qualità dei testi forniti al modello in fase di addestramento è infatti un aspetto cruciale. E se si considera che gran parte dei testi sono estrapolati dal materiale pubblicato sul Web (abbiamo parlato della crociata di Cloudflare contro i bot usati dalle intelligenze artificiali), è facile immaginare come il comportamento del modello generativo possa essere influenzato da contenuti di bassa qualità, da errori fattuali, dalla disinformazione e dai tanti contenuti offensivi che appaiono online. Il “setaccio finale” applicato dai vari modelli è una salvaguardia in più che può non essere sufficiente a garantire l’accuratezza dei contenuti generati. Il risultato è che gli LLM tendono a produrre testi che suonano plausibili e sicuri, ma che spesso possono essere inesatti o addirittura menzogne ben confezionate. I portavoce di Vivaldi affermano che il loro browser non intende contribuire alla diffusione di disinformazione.

LA SCELTA ETICA DI VIVALDI

Picalausa conclude che, data la natura degli LLM, Vivaldi ha scelto di non integrare queste soluzioni nel browser. L’azienda riconosce anche il notevole consumo di energia necessario per far funzionare i modelli, quindi preferisce evitare completamente queste tecnologie. Nel pieno rispetto della volontà degli utenti, tuttavia, Vivaldi continuerà a permettere l’accesso e l’utilizzo dei LLM online. Dal canto suo, Vivaldi esplorerà soluzioni nel campo del machine learning, con l’obiettivo di sviluppare funzionalità utili e rispettose della privacy.

LE COSE STANNO DAVVERO COSÌ? HA SENSO STIGMATIZZARE L’USO DELL’INTELLIGENZA ARTIFICIALE?

Vivaldi ha scelto di arroccarsi su una posizione che non lascia spazio a “compromessi”. D’altra parte i LMM sono addirittura definiti come “macchine di menzogne plausibili”. Da parte nostra riteniamo irrazionale trincerarsi su una posizione così “estremista”. I benefici delle moderne intelligenze artificiali sono sotto gli occhi di tutti e le reali potenzialità non sono ancora ben comprese neppure da chi sviluppa i modelli. Il problema della disinformazione e delle allucinazioni di cui possono soffrire i modelli generativi, è ben noto e non è una novità di oggi. Non è un caso che i migliori chatbot mostrino messaggi come “Il modello può commettere errori; considera di verificare le informazioni importanti”. Come abbiamo osservato altrove, i LLM non evidenziano una vera “comprensione” del testo o del contesto: piuttosto, fanno leva su una sofisticata manipolazione di rappresentazioni numeriche e aspetti matematico-probabilistici. Ne parliamo nell’articolo in cui ci chiediamo quando l’intelligenza artificiale supererà quella umana. Non bisogna quindi mai dare per scontato nulla. Le informazioni restituite dai LLM vanno scrupolosamente controllate (verifica delle fonti) e sarebbe bene possedere sempre un certo bagaglio esperienziale per comprendere dove, come e perché il modello sta sbagliando. La regola generale è la seguente: mai affidarsi ciecamente ai modelli generativi perché si rischierebbe di commettere errori, spesso davvero grossolani. Il panorama è comunque in divenire. Il problema del consumo energetico è prioritario ma le nuove generazioni di modelli, grazie ad esempio a tecniche come la previsione multi-token dovrebbero consentire di migliorare significativamente il quadro. Microsoft stessa ha dimostrato di voler battere anche una strada alternativa all’utilizzo dell’elaborazione vettoriale, grazie ai grafi di conoscenza. Credit immagine in apertura: Vivaldi

ARTICOLI COLLEGATI:

ULTIMI ARTICOLI: