E se l’intelligenza artificiale e i robot diventassero una minaccia per l’umanità? Gli scienziati non possono escluderlo.
L’impetuoso avvento di svariate forme di intelligenza artificiale, sempre più presenti nelle nostre vite, ha fatto riaffiorare scenari e profezie contenuti in una serie pressoché infinita di romanzi e film fantascientifici. Si realizzerà un giorno l’incubo di Skynet, il sistema di intelligenza artificiale che in Terminator cerca di sterminare l’umanità intera? O si consumerà la rivolta delle macchine di Matrix per cannibalizzare gli uomini, ridotti a fonte di energia?
Tutti interrogativi che si fanno ogni giorno sempre meno teorici e che un team internazionale di scienziati informatici ha deciso di prendere molto sul serio. Tra di loro è presente anche un membro interno a Open AI, la società responsabile del lancio di ChatGPT, ad oggi probabilmente il più conosciuto tra i software linguistici di machine learning (LLM).
Il team si prefigge di studiare quali possibilità ci siano che un giorno i modelli di grandi dimensioni di AI arrivino a sviluppare un determinato grado di consapevolezza situazionale. Al punto da trasformarsi in una minaccia per gli esseri umani. Ma soprattutto gli scienziati cercano di prevedere e mettere a punto delle possibili contromisure.
Finora per stabilire se una macchina sia in grado di replicare un comportamento simile a quello dell’uomo si è sempre fatto ricorso al cosiddetto Test di Turing. Questo test consiste nel portare avanti una conversazione testuale con un computer, senza che l’interlocutore della macchina riesca ad accorgersi di comunicare non con un altro essere umano, ma appunto con una macchina.
Ma coi nuovi software basati sugli algoritmi LLM (Logic learning machine) il Test di Turing appare ormai insufficiente. Ragione per cui i ricercatori hanno cominciato a rivolgere le loro attenzioni verso quello che è noto come ragionamento fuori contesto. Orientandosi, in altre parole, verso la capacità dei software di ricordare i fatti che avevano acquisito nel corso della fase di apprendimento – dove le macchine studiano l’associazione tra una quantità enorme di parole, miliardi di miliardi di termini – e di impiegarli durante le verifiche, anche se non direttamente collegati alla domanda originaria.
Stando ai primi esperimenti portati avanti su diverse forme di intelligenza linguistica, più progredisce l’addestramento e la complessità del modello, migliori appaiono anche i risultati ottenuti. Malgrado ciò, al momento i modelli rimangono ancora ben lungi dall’aver acquisito anche il minimo grado di consapevolezza situazionale.
Su ammissione degli stessi ricercatori però questa contromisura appare ancora piuttosto approssimativa per un’indagine approfondita della questione. Studi come questi costituiscono sostanzialmente un primo punto di partenza bisognoso di continue verifiche e miglioramenti. In modo da riuscire a tenere il ritmo dei modelli di intelligenza artificiale che inevitabilmente si faranno sempre più sofisticati e progrediti.
Le smart tv possiedono una videocamera dalla quale spiano le vostre attività? Cosa c'è di…
L'evoluzione tecnologia ha portato i cittadini a una vivere una serie di condizioni praticamente obbligatorie.…
Rischi continui per gli utenti del web. Troppe dinamiche possono guastare la stessa armonia, e…
Arriva la nuova frontiera della truffa: degli hacker hanno sviluppato un modo per rubare anche…
La scienza ha stabilito dopo anni la verità sulla correlazione tra smartphone e tumori: ecco…
C'è una funzione di Whatsapp che non tutti conoscono e che invece rappresenta una comodità…