Ricerca sull’intelligenza artificiale a Cambridge: dovremmo essere ottimisti o spaventati?

//

Alexandre Rossi

Michael Gove sta elaborando proposte per trasformare Cambridge nella “Silicon Valley d’Europa”, con piani elaborati dal Department for Levelling Up, Housing and Communities negli ultimi mesi, “che formano un modello” per scatenare la crescita nei settori delle scienze della vita e della tecnologia. Ciò avviene in un momento in cui Cambridge sta seguendo la scia della classifica come seconda migliore istituzione di istruzione superiore al mondo e ha assistito a una recente ondata di successi nella ricerca sull’intelligenza artificiale. Tuttavia, c’è stata una reazione mista nella comunità di Cambridge alle prospettive dell’intelligenza artificiale: quanto dovremmo essere ottimisti o timorosi?

Applicazioni mediche rivoluzionarie: Cambridge usa l’intelligenza artificiale per ridurre i tempi di attesa nel SSN

Una ricerca per la Cambridge University e presso l’ospedale di Addenbrooke ha scoperto, per la prima volta nel NHS, che l’intelligenza artificiale sta riducendo la quantità di tempo che i pazienti oncologici aspettano per il trattamento radioterapico. La tecnologia basata sull’intelligenza artificiale consente agli specialisti di pianificare il trattamento radioterapico 2,5 volte più velocemente rispetto a se lavorassero da soli. Il Segretario per la Salute e l’Assistenza Sociale Steve Barclay ha commentato questa prima tecnologia: “La tecnologia all’avanguardia può aiutarci a ridurre i tempi di attesa per i pazienti oncologici, liberare tempo per il personale in modo che possa concentrarsi sulla cura dei pazienti e, in definitiva, salvare vite, e l’intelligenza artificiale sta svolgendo un ruolo sempre più importante”.

“La tecnologia all’avanguardia può aiutarci a ridurre i tempi di attesa per i malati di cancro, a liberare tempo per il personale in modo che possa concentrarsi sulla cura dei pazienti e, in definitiva, a salvare vite umane – e l’intelligenza artificiale sta svolgendo un ruolo sempre più importante”

La direttrice del Cambridge Centre for AI in Medicine Mihaela van der Schaar ha recentemente suggerito in Il guardiano che le prospettive dell’IA “progettata specificamente per la medicina del mondo reale – con tutta la sua complessità organizzativa, scientifica ed economica” è il tipo di approccio “incentrato sulla realtà” all’IA che dovremmo perseguire. “La medicina personalizzata basata sull’intelligenza artificiale potrebbe consentire un trattamento più efficace di condizioni comuni come le malattie cardiache e il cancro, o di malattie più rare come la fibrosi cistica. Potrebbe consentire ai medici di ottimizzare i tempi e il dosaggio dei farmaci per i singoli pazienti, o di selezionare i pazienti utilizzando i loro profili sanitari individuali, piuttosto che gli attuali criteri generali di età e sesso”, ha continuato.

La portata della ricerca AI basata a Cambridge è di vasta portata. Il Cambridge ALTA Institute utilizza AI e apprendimento automatico per aiutare gli studenti di seconda lingua a migliorare le proprie capacità di inglese in modo più efficace, fornendo agli utenti un “feedback diagnostico dettagliato”, sebbene siano ansiosi di notare che “non credono che la valutazione automatizzata dovrebbe sostituire insegnanti e esaminatori di classe in tempi brevi”. In un altro successo correlato all’AI, Grzegorz Sochacki, del Bio-Inspired Robotics Laboratory del Professor Fumiya Iida nel Dipartimento di Ingegneria, voleva “vedere se potevamo addestrare uno chef robot a imparare nello stesso modo incrementale in cui possono gli umani, identificando gli ingredienti e come si combinano nel piatto” utilizzando la visione artificiale.

Preoccupazioni sulla sicurezza dell’intelligenza artificiale: un professore di informatica chiede una migliore regolamentazione dell’intelligenza artificiale

Il mese scorso, Neil Lawrence, professore di apprendimento automatico di DeepMind presso il Dipartimento di informatica, ha affermato in un articolo di opinione su I tempi che affidarsi alle BigTech per dirci come dovrebbe essere il futuro della tecnologia dell’intelligenza artificiale “è come se i tacchini chiedessero all’agricoltore cosa dovrebbero mangiare per la cena di Natale”. Dice: “Sotto molti aspetti le macchine sono superiori a noi”. È critico nei confronti del fatto che BigTech si unisca all’attuale ondata di interesse per la sicurezza dell’IA, avviata da una visita del suo collega Geoff Hinton al consulente senior di Rishi Sunak nel n. 10 su come l’IA rappresenti una seria minaccia.

“Affidarsi alle BigTech per sapere come dovrebbe essere il futuro della tecnologia AI è come se i tacchini chiedessero al contadino cosa dovrebbero mangiare per la cena di Natale”

Le aziende stanno saltando sempre più sul carrozzone della sicurezza dell’intelligenza artificiale e sperano di “incoraggiare la creazione di barriere normative per ostacolare eventuali nuovi operatori sul mercato, cercando di utilizzare l’intelligenza artificiale per assicurarsi una fetta dell’azione”, ha suggerito Lawrence.

Mentre il suo collega Hinton è preoccupato che alla fine saremo “manipolati dalla macchina”, Lawrence suggerisce che dovremmo davvero avere più paura della macchina aziendale. Come molti altri ricercatori di Cambridge, è ansioso di sviluppare una serie di protocolli di sicurezza per garantire la governance sicura della tecnologia AI di fronte alla rapida monopolizzazione della tecnologia AI. OpenAI, la società dietro ChatGPT, ha rilasciato un “modello più grande e migliore” chiamato GPT-4 all’inizio di quest’anno ma, come articolo in La revisione della tecnologia del MIT afferma, questa è “la versione più segreta che l’azienda abbia mai rilasciato, segnando la sua completa transizione da laboratorio di ricerca senza scopo di lucro a società tecnologica a scopo di lucro”. I ricercatori del Minderoo Centre for Technology and Democracy di Cambridge il mese scorso si sono uniti a un consorzio da 31 milioni di sterline per creare un ecosistema a livello del Regno Unito per creare un’IA responsabile e affidabile. “Lavoreremo per collegare l’ecosistema di IA responsabile leader mondiale della Gran Bretagna e guidare una conversazione nazionale sull’IA, per garantire che un’IA responsabile e affidabile possa generare benefici per tutti”, afferma il direttore esecutivo Gina Neff.

L’intelligenza artificiale è ancora molto diversa da come si comportano gli esseri umani, afferma il capo della Linguistica.

L’Università sta iniziando ad adattarsi alla più ampia adozione dell’intelligenza artificiale, un Università sondaggio di inizio anno ha rivelato che il 47,3% degli studenti ha utilizzato chatbot AI per assistere il proprio lavoro di supervisione. Proprio come ha detto Bhaskar Vira, pro-rettore per l’istruzione di Cambridge, Università che i divieti sui software di intelligenza artificiale non sono “ragionevoli” nell’istruzione superiore e nella valutazione universitaria, Mihaela van der Schaar ha chiesto quella che lei chiama un’“agenda di potenziamento dell’intelligenza artificiale umana”, in cui non dovremmo puntare a “costruire agenti autonomi che possano imitare e sostituire gli esseri umani, ma a sviluppare l’apprendimento automatico che consenta agli esseri umani di migliorare le proprie capacità cognitive e introspettive, consentendo loro di diventare studenti e decisori migliori”.

Tuttavia, l’affermazione secondo cui grandi modelli linguistici possono in qualche modo imitare o soppiantare le capacità cognitive umane – superando il test di Turing, dal nome dell’alunno del King’s College Alan Turing – ha suscitato molto scetticismo e, in alcuni casi, forti reazioni da parte di scienziati cognitivi e linguisti. Il capo della Sezione di Linguistica Teorica e Applicata, Ian Roberts, scrisse un influente articolo su Il New York Times coautore con l’eminente linguista e anticonformista Noam Chomsky – che rimane ancora una figura influente nella disciplina della linguistica, nonostante le sue controversie più recenti, tra cui i rapporti finanziari con Jeffrey Epstein – di ChatGPT che “data l’amoralità, la falsa scienza e l’incompetenza linguistica di questi sistemi, non possiamo che ridere o piangere per la loro popolarità”.

Quanto sei suscettibile alla disinformazione?

L’ascesa di “grandi modelli linguistici” significa che sempre più testo su Internet sarà generato dall’intelligenza artificiale e non scritto da un essere umano, nemmeno da un Università l’articolo può essere scritto da ChatGPT come ho dimostrato all’inizio di quest’anno!

Gli psicologi di Cambridge hanno sviluppato un test, disponibile per essere provato qui, che fornisce una “solida indicazione di quanto una persona sia vulnerabile all’essere ingannata dal tipo di notizie inventate che stanno inondando lo spazio online”. Il test di due minuti fornisce 20 titoli e una classifica di resilienza. Il responsabile del Cambridge Social Decision-Making Lab, il professor Sander van der Linden, ha affermato: “La disinformazione è una delle sfide più grandi che le democrazie devono affrontare nell’era digitale”. Hanno scoperto che i peggiori performer erano gli under 30 che trascorrevano la maggior parte del tempo online. Probabilmente dovresti limitarti, almeno per ora, a informarti da un Università articolo scritto invece da un essere umano!

Nel complesso, l’ecosistema tecnologico di Cambridge è per molti versi un microcosmo della società in generale, alle prese con e innovando nuove tecnologie, che possono essere estremamente utili – come dimostra la crescente applicazione dell’intelligenza artificiale nel settore sanitario – e altrettanto dannose. Gli accademici di Cambridge stanno appena iniziando a indagare attivamente e a collaborare con partner del settore e decisori politici per affrontare le nuove crisi di sicurezza informatica e disinformazione che l’intelligenza artificiale pone sempre più spesso.