domenica, Giugno 23, 2024

I libri scritti da ChatGPT con recensioni false scritte da ChatGPT stanno invadendo Amazon

Per molti creativi diventare un autore pubblicato può sembrare un sogno irrealizzabile. Internet ha ampiamente rivoluzionato il modo in cui gli scrittori possono mettere le loro opere nelle mani di lettori entusiasti, ma anche con i progressi della tecnologia, il compito di far pubblicare un romanzo in un libro tangibile che le persone possono acquistare non è stata un’impresa facile. Questo fino a quando il programma Kindle Direct di Amazon ha dato agli autori un nuovo percorso verso l’autopubblicazione. Il sistema KDP di Amazon consente a chiunque di pubblicare un libro con un sovraccarico minimo. Qualsiasi cosa, da un libro da colorare a un lungo tomo fantasy, può essere pubblicata tramite Amazon KDP. Questa bassa barriera di ingresso ha portato a un problema unico per Amazon as I contenuti generati dall’intelligenza artificiale hanno iniziato a invadere efficacemente il mercato.

Centinaia di libri che elencano controparti AI come Bing Chat, ChatGPT o MidJourney come coautori o illustratori hanno trovato la loro strada nel mercato di Amazon. Sebbene elencare l’IA come co-creatore sia una possibilità, attualmente non vi è alcun requisito nella politica sui contenuti di Amazon che imponga che l’IA debba essere elencata quando è stata utilizzata per generare un libro. Le linee guida sui contenuti affermano che Amazon non accetterà contenuti liberamente disponibili sul Web a meno che non siano forniti dal proprietario del copyright, ma non ci sono ulteriori dettagli su come ciò possa essere applicato in uno scenario in cui un libro generato dall’IA contenuto è elencato.

I generatori di intelligenza artificiale come ChatGPT e Midjourney fanno molto affidamento sullo scraping di set di dati esistenti di opere d’arte e opere scritte per produrre risposte ai suggerimenti inseriti dagli utenti. Non sono mancati discorsi pubblici tra creativi e utenti di intelligenza artificiale sul fatto che le opere generate siano effettivamente plagiate o che violino in altro modo la proprietà intellettuale e le leggi sul copyright. Nonostante le loro linee guida sui contenuti vietino severamente il plagio, Amazon sembra essersi schierata a favore dei contenuti generati dall’IA consentendo ai venditori di nascondere se i loro libri sono scritti o meno da umani o AI.

Anche i singoli venditori di contenuti scritti e illustrati con l’intelligenza artificiale non sono gli unici a beneficiare di questa mancanza di trasparenza, poiché anche un certo numero di editori ha abbracciato le vendite di libri di intelligenza artificiale sul negozio di Amazon. Le vendite di questi libri sono ulteriormente rafforzate da un’ondata di false recensioni a 5 stelle generate in modo simile con l’aiuto dell’intelligenza artificiale.

Nonostante non abbia una clausola trasparente relativa ai libri prodotti dall’intelligenza artificiale nella sua politica sui contenuti, Amazon in passato ha rimosso i contenuti scritti dall’IA. Chris Cowell, uno sviluppatore di software con cui ha parlato Il WashingtonPost, dettagliato dopo aver scritto un manuale su un argomento tecnico di nicchia solo per scoprire un libro su Amazon con lo stesso identico titolo. Quel libro era stato generato interamente da AI e attribuito a un autore apparentemente falso. L’intera esperienza ha lasciato Cowell riluttante a continuare a scrivere, non solo per paura di perdere vendite, ma perché era consapevole che eventuali scritti futuri avrebbero potuto inevitabilmente essere utilizzati per addestrare ulteriormente l’IA a produrre contenuti e concorrenza di bassa qualità.

Amazon ha rimosso l’elenco degli imitatori nella situazione di Cowell, ma un campo minato in continua crescita di libri scritti dall’intelligenza artificiale continua a ingombrare il servizio. Si teme che, con il tempo, i contenuti di questi libri vengano filtrati attraverso l’IA come campioni di addestramento che verranno poi utilizzati per sfornare più libri scritti dall’IA con recensioni scritte dall’IA che rischiano di distorcere ulteriormente gli algoritmi.

ARTICOLI COLLEGATI:

ULTIMI ARTICOLI: