Dopo aver visto le differenti tipologie di AI e alcuni ddegli utilizzi più intressanti è ora il momento di soffermarsi sui limiti e sui problemi delle Intelligenze Artificiali
Spesso si sente parlare di "allucinazioni" delle AI, riferendosi in particolare agli LLM.
Vi sono casi in cui le risposte dei Large Language Model (ChatGPT, Google Gemini, DeepSeek ecc.) sembrano davvero il frutto di allucinazioni.
Ma non è così.
In reqaltà gli LLM funzionano esattamente come previsto.
Le "allucinazioni" negli LLM (Large Language Models) avvengono quando vengono genrate risposte sintatticamente e semanticamente corrette, ma disconnesse dalla realtà, basate su falsi presupposti o completamente errate.
Il modello produce risposte che sembrano plausibili ma non corrispondono a fatti veri o affidabili e posono essere totalmente errate o fuori contesto.
Cosa provoca le "allucinazioni"?
Il termine allucinazioni può essere fuorviante ci fa pensare a qualcosa dovuto a un "malfunzionamento" del nostro cervello, provocato da malattie o da fattori esterni, come droghe, stress eccessivo o condizioni estreme.
Per i Large Language Model non è certo la stessa cosa. Il fattore più importante che provoca le "allucinazioni" risiede proprio nella loro natura, nel come sono costruiti e progettati.
Gli LLM non hanno una comprensione intrinseca della realtà sottostante descritta dal linguaggio.
Generano testo che "suona bene", prevedono parole, basandosi sulla coerenza statistica con il prompt e gli schemi appresi dai dati di addestramento, piuttosto che su una vera comprensione dei fatti.
Gli LLM non comprendono il mondo reale.
Per loro non esiste corretto o errato, producono risposte linguisticamente coerenti scegliendo le parole statisticamente più probabili.
Naturalmente ciò che sto dicendo è una semplificazione all'estremo del relae funzionamento degli LLM, ma l'idea di base è corretta. Negli LLM non esiste comprensione, ma previsione statistica estremamente sofisticata.
Molti altri fattori possono concorrere alla creazione di risposte errate e fuorvianti:
- Dati di addestramento obsoleti o di scarsa qualità: Un modello addestrato su dati incompleti, vecchi o di bassa qualità sarà molto più soggetto alla creazione di risposte incomplete o errate.
- Overfitting (ottimizzazione eccssiva): L'overfitting si verifica quando un modello si adatta troppo bene ai dati di addestramento, perdendo la capacità di generalizzare a nuovi dati. Questo può portare il modello a produrre contenuti allucinati nel tentativo di "riempire i vuoti" con dati plausibili ma falsi.
- Ambiguità nella Query o nel Contesto: Se la richiesta dell'utente è ambigua o se il contesto fornito è insufficiente, il modello può cercare di interpretare e completare le informazioni in modo errato, dando luogo a un'allucinazione.
- Bias nei Dati di Addestramento: I bias presenti nei dati di addestramento portano l'LLM a generare contenuti che riflettono tali bias, generando in tal modo risposte errate.
-
Ragionamento logico limitato o compito troppo comlesso: Gli LLM hanno difficoltà con il ragionamento deduttivo, di conseguenza, compiti che richiedono ragionamento complesso, comprensione profonda o conoscenza specifica, possono dare come risultato una risposta "allucinatoria".
La scatola nera
Quando un modello AI, in particolare quelli basati su Deep Learning prende una decisione o produce un risultato, non è possibile ricostruire il percorso attraverso cui tale risultato è stato raggiunto.
In campi sensibli, come la diagnostica medica o la gestione del credito è fondamentale comprendere perché viene presa una determinata decisione.
L'impossibilità di veridficare il processo interno che porta dall'input di informazioni all'output della risposta caratterizza le AI come delle Black Box, delle scatole nere dentro cui non è possibile scrutrare.
Questa mancanza di trasparenza crea problemi etici e legali, oltre a minare la fiducia nei risultati.
Anche se ben pochi si preoccupano della validità delle risposte di un LLM, quando tali risposte diventano cruciali, diventa difficile fidarsi di un sistema se non si capisce come prende le decisioni.
Anche vattribuire le responsabilità in caso di errore diventa impossibile. Ha sbagliato il modello o gli sono stati forniti dati errati? I sensoti non hanno rilevato un ostacolo o l'AI pilota a reagito in modo errato? In un mondo in cui le automobili guideranno da sole, i vsistemi intelligenti di diagnostica medica saranno pervasivi, le vdecisioni finanziarie saranno prese da un'AI cosa accadrà in caso di errore?
Vi sono situazioni in cui le normative vigenti richiedono trasparenza e spiegabilità dei processi decisionali, rendendo impossibile l'adozione, in questi casi, di modelli AI in aiuto agli esseri umani.
Impatto Ambientale e Consumo Energetico
Il consumo energetico delle AI è talmente elevato che alcune fra le aziende che sviluppano e forniscono i servizi basati su AI stanno ipotizzando la costruzione di centrali nucleari dedicate per alimentare la potenza di calcolo necessaria.
Non è ovviamente l'unica strada percorrible, vi è anche chi cerca di sviluppare AI meno insaziabili dal punto di vista computazionale, costruendo modelli in grado di funzionare anche localmente su computer di potenza limitata.
Resto però il fatto che al momento attuale gli LLM più diffusi consumano enormi quantitià di energia per il loro funzionamento e di acqua per il raffreddamento dei datacenter.
Problemi Etici e Morali
Bias e Discriminazione Algoritmica: L'AI apprende dai dati con cui viene addestrata. Se i dati di addestramento riflettono pregiudizi sociali, inesattezze storiche o rappresentazioni incomplete l'AI può perpetuare e persino amplificare i pregiudizi esistenti nella società. Questo può portare a decisioni discriminatorie in settori critici come l'assunzione di personale, la concessione di prestiti, la giustizia penale o la diagnosi medica.
Ad esempio, algoritmi di selezione del personale hanno mostrato di discriminare le donne, o sistemi di riconoscimento facciale hanno avuto difficoltà a identificare persone con tonalità di pelle più scure.
Problemi Sociali e del Lavoro
La capacità dell'AI di automatizzare compiti precedentemente svolti dagli esseri
umani è il fattore primario che spinge alla sua adozione e che garantendo una maggiore efficenza, ma solleva anche significative preoccupazioni
riguardo alla sostituzione di posti di lavoro in vari settori.
Le proiezioni indicano che una
buona parte dei datori di lavoro prevede di ridurre la propria forza lavoro
nei settori in cui l'IA può automatizzare i compiti, e almeno la metà prevede di riorientare i propri
modelli di business in risposta alle capacità dell'IA.
L'intero mercato del lavoro sta cambiando in risposta alla diffusione delle AI. Cresce la richiesta di icompetenze tecniche legate alla tecnologia, AI, big data, cybersicurezza.
Una buona parte della forza lavoro attuale dovrà cercare il modo di riqualifcarsi, attraverso la formazione e l'acquisizione di nuove competenze. Non si tratta tuttavia di un percoso semplice e accessibile a tutti allo stesso modo. Il rischio,quindi, è quello di aumentare ulteriormente le disparità esistenti e di crearne di nuove, difficilmente superabili,
Privacy e Sicurezza
L'addestramento delle AI necessita di una mole enorme di dati. Le aziende che creano e addestrano le AI non sono mai molto trasparenti sul tipo di dati che utilizzano e sulla loro provenienza.
Ora vengono utilizzati anche dati provenienti dai social network, raccogliendo in questo modo anche informazioni personali e dati sensibili.
Manca una legislazione chiara e precisa in questo campo e le aziende coinvolte non sembrano voler implementare meccanismi di governance e di sicurezza adeguati.
Oltre alle problematiche relative alla sicurezza dei dati è necessario stabilie dei principi etici sulla raccolta e l'uso di dati personali.
Problemi Legali e Regolamentari
Le lesgislazioni attuali sono di difficle applicazione in uno scenario nuovo che presenta sfide e problematiche finora mai affrontate, sia sul fronte della raccolta e dell'utlizzo di dati personali e sensibili sia su quello del diritto d'autore, in cui si presenta una situazione caratterizzata da un intenso dibattito legale, etico e tecnologico a livello globale.
Vi sono due aspetti distinti del problema, uno riguarda la tutela delle opere utilizzate per l'addestramento delle AI, il secondo le opere prodotte dalle AI, testi, immagini, musiche, video.
L'addestamento delle AI richede dati, moltissimi dati, così tanti che non è possibile per nessuna azienda produrli autonomamente.
Per questo motivo le aziende che addestrano le AI utilizzano tutto ciò che riescono a trovare sul WEB, spesso senza curarsi di eventuali diritti di utilizzo. Ma non solo, almeno in un caso si è scoperto che un'azienda utilizzava un archivio illegale di libri, scaricando l'intero archvio e utlizzando migliaia e migliaia di volumi senza pagare nulla ad autori ed editori.
Vi sono diverse cause in corso da parte di autori, illustratori ed editori, per ottenere il riconoscimento dei diritti d'autore sulle proprie opere utilizzate per l'addestramento delle AI o per ottenere che vengano escluse dai dati di addestramento.
Ma è in corso un dubattito anche sui diritti d'autore delle opere prodotte mediante l'utilizzo delle AI.
Al momento la tendenza afferma che le opere prodotte tramite AI sono escluse dalla protezione del diritto d'autore.
Solo nei casi in cui l'intervento umano sia significativo le opere possono rientrare fra quelle protette per legge. Quindi se l'utente effettua vari raffinamenti, dirigendo l'AI verso il risultato finale, l'opera potrebbe essere protetta. Risulta evidente che sia estrmamente difficile stabilire una definizione precisa di cosa costituisca un intervento significativo.
Disinformazione e Manipolazione delle informazioni
Le AI possono contribuire in modo significativo alla disinformazione e alla manipolazione delle informazioni. Si tratta si uno dei problemi etici e sociali più urgenti legati al loro sviluppo.
La loro capacità di generare, amplificare e personalizzare contenuti su vasta scala le rende strumenti estremamente potenti in questo ambito.
Le IA avanzate possono creare testi, immagini, audio e video falsi (deepfake) in modo convincente, generando notizie inventate e manipolatorie e creando narrative ingannevoli, ma asssai convicenti.
Le AI possono alimentare eserciti di "bot" sui social media, che interagiscono tra loro e con gli utenti umani per diffondere rapidamente disinformazione, far sembrare un'idea più popolare e accettata di quanto non sia, o seminare discordia. Questi bot possono anche creare profili falsi indistinguibil da quelli di utenti reali.
Conclusioni
Questa è solo una veloce panoramica delle problematiche più urgenti e diffuse causate dall'adozione delle AI, ma l'argomento non si esaurisce certo qui.
Come anche per tutte le altre sezioni di questo documento ci sarebbe molto altro da dire sia sui benefici che sui rischi derivanti dall'uso e dalla diffusione delle Inteligenze artificiali.
Sei spaventato dai problemi che possono sorgere dall'utilizo sbagliato delle Intelligenze Artificiali?
Ti interessa comprendere le difficoltà e i problemi, ma anche i vantaggi e le prospettive di questa rivoluzione tecnologica?
Che tu sia un privato cittadino, un imprenditore o un amministratore pubblico,
contattaci.
info@ymir.it