AI: where we stand and where we are going

Author:  Antonio Ostuni | R&D Director

Un mondo in cui l’umanità esercita totale potere sulle macchine, super robot che devono rispettare tre leggi fondamentali:

  1. Un robot non può ferire un essere umano o lasciare che un essere umano faccia del male rimanendo inerte;
  2. Un robot deve obbedire ad un ordine impartito da un essere umano, a patto che non vada in conflitto con la prima regola;
  3. Un robot deve proteggere la propria esistenza, senza confliggere con le altre due regole.

Questo è lo scenario dipinto nel film I, Robot (2004), ambientato in un futuro prossimo (anno domini 2035) e basato sulle leggi descritte da Isaac Asimov in Runaround.

Ma oggi, alle soglie del nuovo decennio, a soli quindici anni dalla data ipotizzata nel film di Alex Proyas, dove siamo arrivati? Qual è lo stato dell’arte dell’intelligenza artificiale? In quale direzione stiamo andando?

Partiamo dalla certezza che l’IA non riguarda soltanto i robot, come molto spesso i film ci mostrano. L’intelligenza artificiale è in un algoritmo di ricerca, in un chatbot, nei dispositivi IoT o, ancora, in auto e persino nelle armi autonome, come un missile che segue il suo target.

Oggi possiamo individuare due principali tendenze AI:

  • La Narrow AI (o intelligenza artificiale debole), che si occupa di task singoli implementando una sola parte della mente;
  • La General AI (AGI o intelligenza artificiale forte), che pertiene la capacità di una macchina di capire o imparare qualsiasi task intellettuale di un essere umano.

AI: stato dell’arte

La tecnologia, sempre più avanzata, mette a disposizione ai ricercatori nuovi strumenti capaci di raggiungere importanti traguardi e, al tempo stesso, grandi punti di partenza. Tra le conquiste degli ultimi anni, alcuni domini specifici:

  • Machine Learning;
  • Reinforcement Learning;
  • Deep Learning;
  • Natural Language Processing.

 

Machine Learning (ML)

Il Machine Learning è un sottocategoria dell’AI che, spesso, usa tecniche della statistica per dare alle macchine la possibilità di apprendere dati senza aver esplicitamente ricevuto istruzioni per farlo. Questo processo è conosciuto come “training” di un “modello” utilizzando un “algoritmo” di apprendimento, che progressivamente migliora le prestazioni su un’attività specifica. I successi raggiunti in questo campo invogliano i ricercatori a spingere sempre di più sull’acceleratore.

Tra questi, la capacità delle macchine di apprendere come sintetizzare le molecole. Utilizzando un sistema composto da 3 neural network con un algoritmo di albero di ricerca chiamato “Monte Carlo” è stato possibile istruire le macchine con circa 12.4 milioni di reazioni, riuscendo a risolvere analisi retrosintetiche. Questo metodo è di gran lunga più veloce di quello impiegato oggi dalla pianificazione computerizzata della sintesi molecolare. Infatti risolve più dell’80% di un singolo test molecolare, dove ogni test (o test-run) ha un limite di tempo massimo di 5 secondi, come target, per ogni singola molecola (in fase di test).

La ricerca continua anche nella direzione dell’ottimizzazione degli strumenti, come gli hyper parameters e i neural network, parametri fissi dati alle macchine quali valori iniziali per l’apprendimento. L’utilizzo di algoritmi rivoluzionari permette di massimizzare le network performance minimizzando la complessità e la dimensione di calcolo. Un esempio è LEAF – Learning Evolutionary AI Framework –  che riesce ad utilizzare proprio questi algoritmi per condurre l’ottimizzazione sia per gli hyper parameters che per le network architecture saldando insieme più piccole ed efficaci network.

 

Reinforcement Learning (RL)

Il Reinforcement Learning è un’area del ML relativa ai software agents che apprendono il comportamento “goal-oriented”, cioè orientati agli obiettivi, tramite il provare e il commettere errori in un ambiente che prevede dei premi in risposta alle azioni degli agents (chiamate “policy”) verso il raggiungimento degli obiettivi.

Questo campo è quello che forse ha catturato maggiormente l’attenzione dei ricercatori nell’ultimo decennio: OpenAI, un’associazione no-profit  di ricerca sull’intelligenza artificiale con lo scopo di promuovere e sviluppare un’intelligenza artificiale amichevole in modo che l’umanità possa trarne beneficio, ha ottenuto nel 2018 dei risultati molto importanti nel gioco di “Montezuma’s Revenge”, raggiungendo le prestazioni di un superumano con una tecnica chiamata Random Network Distillation (RND), la quale incentivava l’agente RL ad esplorare stati non prevedibili. Il grafico di seguito mostra come questa tecnica abbia di gran lunga superato le altre dei vari sistemi di AI in questo gioco.

Questo è solo uno dei vari esempi dei risultati ottenuti nel 2019. Da citare anche AlphaStar di DeepMind, la IA che ha battuto, nel gioco di strategia real-time StarCraft 2, il 5 volte campione del mondo, utilizzando un algoritmo di multi-agent training, il quale ha agito in prima istanza facendo competere gli agenti uno contro l’altro, permettendo di apprendere l’immenso spazio strategico. In seguito, è stato prodotto un nuovo agent il quale combinava un mix di migliori strategie sviluppate dai singoli. In Quake 3 Arena, altro esempio, si è raggiunto un livello prestazionale pari a quelle umane, questo utilizzando agent multipli che indipendentemente apprendevano ed agivano insieme per competere contro un altro.

 

Deep Learning

Sempre all’interno del ML, il deep learning prende ispirazione dall’attività dei neuroni all’interno del cervello per imparare a riconoscere schemi complessi attraverso dati appresi grazie all’utilizzo di algoritmo, prevalentemente di calcolo statistico. La parola “deep” si riferisce al grande numero di livelli di neuroni che il ML modella in contemporanea, i quali aiutano ad apprendere ricche rappresentazioni di dati per ottenere migliori guadagni di prestazioni. 

Il 2019 è stato un anno cardine per il deep learning e la sua applicazione in diversi settori, in particolare nel campo della medicina. Ad esempio, un approccio chiamato a “due stadi” del DL, ha prodotto suggerimenti di diagnosi di livello esperto e di prescrizioni di trattamento su varie malattie dell’occhio: un primo stadio ha permesso di ricostruire una mappa dei tessuti dell’occhio da uno scanner 3D digitale mentre il secondo stadio con un network di classificazioni, ha operato su questa mappa per fare delle previsioni della gravità della patologia. Un altro esempio è il modello di deep learning utilizzato su 54mila tracce di elettrocardiogramma, in grado di poter evidenziare 12 classi di aritmie con delle performance da cardiologo. 

Ancora più importante è quello che i ricercatori credono di poter raggiungere attraverso alcuni studi, ovvero la possibilità di ripristinare le comunicazioni dei pazienti paralizzati e la rianimazione di quelli tetraplegici. 

Nel primo caso, alcuni ricercatori della Columbia University, hanno dimostrato che utilizzando dei metodi di misurazione dell’attività neurale di 5 pazienti affetti da epilessia, sono riusciti a sintetizzare la voce, tramite un vocoder, dall’attività cerebrale. Il sistema ha raggiunto il 75% di accuratezza ma con un modello di deep learning si è visto un 65% di miglioramento della comprensibilità del discorso. 

Nel secondo caso, ancora più stupefacente, dei ricercatori hanno impiantato un microelettrodo nell’area della mano e del braccio della parte sinistra del motore primario della corteccia di un paziente tetraplegico. Hanno istruito il network neurale a predire quello che potrebbero essere le intenzioni di movimento del braccio del paziente basate sui segnali di voltaggio all’interno del cranio, registrati dal cervello del paziente. Il paziente ha potuto sostenere una rianimazione di alta accuratezza del suo avambraccio paralizzato con delle stimolazione funzionali elettriche per più di un anno senza l’aiuto di una supervisione.

 

Natural Language Processing (NLP)

Il natural language processing è il meccanismo con cui le macchine assumono la capacità di analizzare, capire e manipolare dati testuali. Il 2019 è stato un grande anno per il NPL con Google AI’s BERT and transformer, Allen Institute’s ELMo, OpenAI’s Transformer, Ruder e Howard’s ULMFit ed infine Microsoft’s MT-DNN. Tutti questi hanno dimostrato che dei modelli di linguaggio pre-istruiti possono sostanzialmente migliorare le performance su una grande varietà di task NLP. 

Facciamo l’esempio del modello di linguaggio pre-istruito di OpenAI GPT2:

 

INPUT: Miley Cyrus was caught shoplifting from Abercrombie and Fitch on Hollywood Blvd.

OUTPUT (interamente scritto da una macchina al suo secondo tentativo): The 19 years old singer was caught on camera being escorted out of the store by security guards. The singer was wearing a black hoodie with the label ‘Blurred lines’ on the front and ‘Fashion Police’ on the back. Scroll down for video.

Shoplifting: Miley Cyrus was caught shoplifting from Abercrombie and Fitch on Hollywood Boulevard today (pictured) 

The singer was wearing a black hoodie with the label ‘Blurred lines’ on the front and ‘Fashion Police’ on the back.

The singer was also wearing a pair of black-rimmed glasses, a blank jacket, black jeans and black sandals. She was carrying a pair of black and white striped gloves and small black bag.

Si può provare questo NLP al seguente indirizzo: transformer.huggingface.co 

Per capire quali progressi sono stati fatti, il sistema di GLUE (General Language Understanding Evaluation) benchmark, cioè una collezione di risorse per il training, valutazione ed analisi della comprensione degli NLP,  ha messo sotto torchio alcuni dei sistemi di NLP con dei test specifici valutando diversi aspetti della comprensione dei task, ovvero, una serie di compiti che abbracciano la logica, comprensione del buon senso e semantica lessicale. Negli ultimi 13 mesi questi sistemi hanno mostrato una crescita molto elevata superando di un punto la linea base umana. 

In questo settore c’è da notare l’interesse sempre crescente alla Federated Learning per prodotti del mondo reale. Infatti, già dal 2018, Google utilizza la FL per training distribuiti sulle tastiere Android. Se avete fatto caso, la tastiera Android, dopo un periodo di utilizzo, comincia a suggerire parole che vengono utilizzate più spesso, anche se non inserite nel suo vocabolario. Mentre nel 2019, sempre Google, ha messo in campo il suo sistema generale di FL introducendo “TensorFlow” federated, ovvero una libreria di funzioni che possono essere eseguite in un settaggio decentralizzato. Questo ha generato molta attenzione soprattutto per il crescente interesse sulla sensibilità dei dati utilizzati dai sistemi di machine learning. La privacy di TensorFlow permette l’apprendimento ai modelli  dei sistemi di machine learning sui dati degli utenti, inoltre fornisce anche forti garanzie matematiche che questi modelli non imparino e/o ricordino dettagli circa nessun utente specifico.

 

Dove stiamo andando

Sono varie le direzioni che sono state già prese o sono ancora da prendere. La tecnologia per le auto a guida autonoma, ad esempio, che, per quanto possa essere un discorso ormai abbondantemente intrapreso da buona parte delle case automobilistiche, rimane ancora ad uno stadio di R&D. Google, invece, con i suoi passi da gigante nell’implementazione di hardware per la computazione quantistica, ha facilitato la nascita di 5 start-up che si occupano di machine learning quantistica. 

IA si è diffusa in moltissimi campi: la sua applicazione, sempre più ampia, ci sta aiutando ad effettuare operazioni complesse sempre più in minor tempo e con minore sforzo. Ma cosa succede se IA dovesse prendere il sopravvento sulle nostre vite?

Ci sono altre ipotesi, forse meno rassicuranti, di un IA meno amichevole. Questa è quella di Stuart Armstrong, filosofo e ricercatore, che si sta occupando dei rischi che IA potrebbe portare su larga scala. In sostanza lui non parla di macchine intelligenti che stermineranno l’umanità, la reale paura è quella di avere macchine, robot o sistemi che possano diventare più intelligenti dell’essere umano, ma non solo nelle operazioni meccaniche ma anche nelle relazioni sociali dalla politica all’economia.

La perdita del lavoro rappresenta uno dei principali rischi: per esempio, se prendiamo un IA che ha raggiunto l’intelligenza di livello umano, si copia 100 volte e ad ognuno si insegna 100 professioni differenti ed infine si prende ognuno di loro e li si copia altre 100 volte. Succede che, in meno di una settimana, si hanno 10mila dipendenti esperti in 100 settori differenti. 

Un’altra ipotesi più realistica arriva dall’immensa mole di dati che i sistemi di IA acquisiscono per poter alimentare le proprie “data-driven” automazioni: qual è la nuova natura del lavoro che questi sistemi affrontano con i loro immensi dataset? Come possiamo gestire l’impatto sociale di queste enormi mole di dati? Come ci si comporta con la privacy, la sicurezza e la libertà? 

Nel 2018 abbiamo assistito allo scandalo di Cambridge Analytica, ma il problema dei dati non si è fermato, infatti nel 2019 questo trend negativo ha continuato il suo percorso con altri scandali di privacy (Facebook, Apple, Amazon) o di trading di dati. Tra i più sconcertanti, c’è il “Deepfake” ovvero la tecnica per la sintesi dell’immagine umana basata sull’intelligenza artificiale, usata per combinare e sovrapporre immagini e video esistenti con video o immagini originali, tramite una tecnica di apprendimento automatico, conosciuta come rete antagonista generativa.

Con il maggiore sviluppo della tecnologia, si alza il livello di rischio, come ci insegna anche la storia. Ma di sicuro l’intelligenza artificiale è ormai entrata a far parte della vita quotidiana e sta già cambiando alcuni processi di routine, vedi ad esempio gli assistenti vocali di Google, Amazon e Apple. Uno studio del Boston Consulting Group mostra che i rivenditori che hanno implementato la tecnologia del machine learning per la propria personalizzazione hanno avuto un incremento dal 6 al 10% di vendite, ovvero 2/3 volte più veloce di quelli che non lo hanno fatto. IA certamente continuerà a modellare il futuro di una varietà di industrie come quelle dedicate all’IoT (Internet of Things), trasporti e logistica, salute digitale e molti rami della fintech ed insurtech.

A prescindere da quale sia il settore, l’intelligenza artificiale è ovunque e sicuramente cambierà il nostro modo di fare business. La domanda è: siamo pronti al cambiamento? 

Contact us to find out all ThinkOpen news and services

*I dati raccolti verranno trattati secondo la nostra informativa