NotCo. e il suo green food

Come le Intelligenze Artificiali cambieranno le nostre abitudini alimentari, in maniera sostenibile.

Logo ufficiale NotCo, preso dal mediakit del sito ufficiale.

In un mondo sempre più all’avanguardia, la tecnologia più discussa, almeno in questi ultimi decenni, è sicuramente quella delle Intelligenze Artificiali, sia per il loro crescente utilizzo in tutti i settori professionali, sia per le implicazioni che possono scaturire dal fatto di essere l’opzione più gettonata dalle grandi aziende, per sostituire alcuni ruoli che sono stati da sempre di competenza degli esseri umani.

Tuttavia, il vero obiettivo della ricerca sulle I.A. non è quello di sostituire l’uomo, ma di affiancarlo nel lavoro affinché vada a vantaggio dei professionisti e non delle macchine che, comunque, beneficiano loro stesse di questa interazione, soprattutto tramite il feedback ricevuto dalla controparte umana, fungente da vero e proprio tutore per lo sviluppo di I.A. sempre più all’avanguardia e riducendo la soglia d’errore, sia da un lato, che da un altro.


Intelligenze Artificiali e Sostenibilità: una nuova frontiera.

Ciò premesso, in questo articolo  ci concentreremo su come le I.A. possano aiutare anche nell’ardua strada che è la ricerca della sostenibilità, termine sempre più di moda (e a buona ragione) di questi tempi. Essa, sebbene si tenda ad associarla con l’ambiente naturale e al suo inquinamento, non si basa solo su questo, ma su molteplici settori che spaziano da quello lavorativo all’economico fino a quello culturale, al rispetto dei diritti e all’abolizione delle disuguaglianze, qualunque esse siano, elencati nei 17 obiettivi per lo sviluppo sostenibile presentati nell’Agenda 2030 e riconosciuti dall’ONU a livello mondiale.

Ritornando al ruolo delle I.A., sono molti i settori legati al raggiungimento della sostenibilità. Per darne un concreto esempio, penso al problema del cibo e, più precisamente, all’impatto che può avere sul clima; infatti, ogni anno, gli allevamenti intensivi di bestiame contribuiscono all’aggravarsi dell’effetto serra che, con le loro emissioni, hanno raggiunto quota 704 milioni di tonnellate di CO2, pari al 17% del totale di gas serra prodotti dall’Europa, inquinando pure più delle auto, secondo il rapporto di Greenpeace del 2020.


La soluzione tecnologica di NotCo. e il suo Arcimboldo.

Immagine presa dal mediakit gallery, del sito ufficiale NotCo.

A questo problema ci hanno già pensato Karim Pichara, Matias Muchnick e Pablo Zamora, che mettendo insieme i loro talenti, hanno trovato una possibile soluzione per ridurre l’utilizzo intensivo di animali, tramite la fondazione della compagnia statunitense NotCo, che sta per Not Company, alla cui base, come suggerisce il nome, sta la produzione di cibo che non è propriamente quello che ci potremmo aspettare,  perché creato e sintetizzato da una vera e propria I.A., soprannominata Giuseppe, in onore di Giuseppe Arcimboldo, pittore del ‘500 noto per i suoi ritratti umani composti da vegetali e frutta; ed è proprio questa la peculiarità da cui ne deriva il nome, visto che è in grado di sintetizzare un determinato alimento di origine animale analizzando e estraendo, a livello molecolare, i componenti che gli danno un determinato sapore, colore e consistenza usando svariate combinazioni di prodotti vegetali per ricreare il prodotto originale.

La tecnologia con la quale hanno agito i creatori di Giuseppe, si basa sul machine learning, ovvero, una metodologia di apprendimento delle I.A. dove la macchina impara a raggiungere un determinato obiettivo dopo un processo di “trial and error”, nel quale l’uomo funge da controllore e correttore, affinché ogni tentativo sbagliato permetta alla macchina di auto-correggersi e di diventare sempre più efficiente, fino al raggiungimento dell’obiettivo iniziale.  Per fare un esempio relativo al nostro caso, durante le fasi iniziali di produzione del loro prodotto principale, i programmatori di Giuseppe si sono accorti che il gusto e la consistenza erano quelli giusti ma il colore, invece che bianco era verde, a causa di una pianta, l’Aneto, che pur giusto per composizione non lo era evidentemente come colorazione.  Facendo notare questo errore,  la macchina non lo ha più replicato, ed è riuscita a trovare una valida alternativa.


Non è latte, ma il futuro del green food sostenibile.

Immagine presa dal mediakit gallery, del sito ufficiale NotCo.

Tutto questo sembra riportarci alle storie di fantascienza, con la differenza che è una tecnologia già funzionante e che ha dato i suoi primi frutti, tramite il loro NotMilk™ ovvero latte di mucca non fornito da quest’ultima, ma composto da una combinazione di molecole provenienti da varie parti del mondo vegetale, con le stesse qualità del prodotto che utilizziamo tutti i giorni a colazione. Usando la stessa tecnologia, quindi, possiamo riprodurre centinaia di migliaia di prodotti di provenienza animale, come le uova, vari tipi di latte, fino ad arrivare a ricreare la carne stessa e, così facendo, possiamo riuscire a ridurre drasticamente l’utilizzo di enormi impianti per l’allevamento intensivo, con conseguente riduzione delle emissioni di gas serra nell’atmosfera, rendendo il mondo un ambiente un po’ più sostenibile a livello alimentare/climatico e riducendo i costi futuri a livelli bassissimi. Si può pensare, quindi,  che con un grande investimento iniziale sullo sviluppo di I.A. sempre più efficienti, anche grazie al già citato feedback umano, che servirà sempre per garantire la qualità del prodotto, affinché corrisponda a ciò che ci aspetteremmo da una bistecca, da un hamburger, fino a un semplice bicchiere di latte, si favoriscano  anche determinati settori del mercato alimentare, come quello Vegetariano e, soprattutto, Vegano.  Se questi riusciranno a superare la loro diffidenza e riusciranno a consumare prodotti che non si sarebbero mai degnati di mangiare, per rispettare i loro principi,  potranno evitare di dover usare integratori alimentari, a favore della loro salute. Sembrerebbe, a questo punto, che la strada perseguibile per il raggiungimento di un mondo più sostenibile, sia un po’ più facile, grazie all’utilizzo delle I.A. e all’impegno di chi lavora per un futuro migliore.

Intelligenze Artificiali e Comunicazione: Ieri, oggi e domani.

Parte prima: Inizio di un fenomeno, dagli anni ‘80, fino agli inizi del XXI secolo.


Salve a tutti e benvenuti a questa nuova rubrica mensile in 3 parti, dedicata, come avrete già letto nel titolo, alle Intelligenze Artificiali e al loro utilizzo nel settore comunicativo. Più nello specifico, andremo a scoprire come le I.A. siano diventate, in questi ultimi anni, un topic principale negli sviluppi tecnologici e scientifici, nonché uno strumento di uso comune nella nostra vita quotidiana e nella comunicazione di tutti i giorni, dagli assistenti virtuali come Cortana o Alexa, alle case domotiche, fino ad arrivare ai robot e ai sistemi automatizzati delle grandi industrie, passando dalla storia recente, ai traguardi raggiunti, per finire con uno sguardo su quello che ci attende nei prossimi anni e come un settore, in forte crescita, possa migliorare i processi comunicativi, non solo tra uomo e macchina, ma anche in comunicazioni uomo-macchina-uomo e tra macchina e macchina.

In questa parte, parleremo brevemente di come le I.A. si siano evolute, a partire dagli anni ‘80, fino ai giorni nostri passando per i punti chiave che hanno definito la nascita di questo settore rivoluzionario e che ancora ha molto da farci vedere. 


Introduciamo le Intelligenze Artificiali.

Non possiamo iniziare a parlare di I.A., senza prima aver capito da dove proviene il termine stesso e, per capirlo, dobbiamo fare un salto indietro nel tempo, fino al 1956, quando si svolse il seminario estivo presso il Dartmouth College di Hanover, nel New Hampshire, dove il matematico John McCarthy, basandosi su numerosi contributi, raccolti negli anni precedenti, che spaziano dal famoso Test di Turing, ideato da Alan Turing nel suo saggio Computing Machinery and Intelligence, del 1950, dove si testava l’intelligenza di una macchina, rispetto a quella umana, fino a Norbert Wiener e alla sua Cibernetica (disciplina che si occupa dello studio sistematico dei processi riguardanti la comunicazione e il controllo, sia negli animali che nelle macchine), introdotta nel 1946 e sviluppatasi fino al 1953, introducendo anche l’importanza, soprattutto a livello comunicativo, del “feedback” del quale parleremo molto più avanti, coniò il termine di “Intelligenza Artificiale”, non per indicare la singola macchina che pensa come un uomo, ma per dare il nome a una nuova disciplina di studi, il cui scopo era lo studio di ogni aspetto dell’apprendimento e delle caratteristiche dell’intelligenza, in modo tanto preciso da poter far sì che una macchina lo simuli; quindi era una disciplina più incentrata sullo studio dell’intelligenza che sullo sviluppo di macchine intelligenti, ma sarà di fondamentale importanza per la creazione delle I.A. che conosciamo adesso.

Infatti, almeno all’inizio, erano davvero in pochi quelli che pensavano a legare l’intelligenza alla macchina, in modo che potesse simulare il pensiero umano e, a parte un piccolo gruppo di ricercatori guidato da Allen Newell, Bernard Shaw e Herbert A. Simon, che basavano i loro studi sullo sviluppo di un elaboratore capace di simulare la risoluzione dei problemi come farebbe la mente umana, senza però, avere molto successo, la maggior parte degli studiosi cercò di usare il concetto di I.A. per lo sviluppo di programmi sempre più complessi e capaci di risolvere problemi di tipo matematico e di calcolo, sempre più velocemente, per alleggerire il carico di lavoro da parte dell’uomo, portando, negli anni ‘70, alla creazione dei primi “sistemi esperti”, ovvero sistemi dove si lega “la conoscenza […] a specifiche regole euristiche convalidate dall’esperienza” (Somalvico, Amigoni, Schiaffonati, 2003), dove un essere umano, esperto in un dato settore, affiancherà una I.A. per aiutarne lo sviluppo, la quale faciliterà, a sua volta, il suo lavoro.


Le prime Intelligenze Artificiali: i giochi degli anni ‘80 e la sfida contro l’uomo.

Gli anni ‘80 saranno dedicati alla creazione di numerosi programmi a scopo ludico, che si basassero su giochi classici, posti a test contro campioni umani in numerosi tornei a livello nazionale e internazionale, a partire dal gioco dell’Othello, che vedrà numerose iterazioni, dal 1979 fino al 1997, passando per il programma  “The Moor”, fino ad arrivare alla sconfitta del campione mondiale Takeshi Murakami, contro LOGISTELLO.

Altro gioco famoso a essere replicato sarà quello della Dama o Checkers, in inglese, dove il programma principale sarà “Chinook”, in sviluppo dal 1989 al 2007 da un team di programmatori dell’Università di Alberta, guidato da Jonathan Schaffer, che sarà causa di varie complicazioni, visto che il miglior giocatore di Dama di tutti i tempi, Maron Tinsley, si rifiuterà di partecipare ai mondiali a causa della classificazione al secondo posto di Chinook ai Nazionali degli USA, classificandosi ai mondiali di diritto; sarà allora che verrà creato il primo torneo Man vs Machine della storia, dove la macchina perse la prima volta contro Tinsley, nel 1992, per poi vincere nel 1994 a causa del suo ritiro per un tumore al pancreas, mentre un anno dopo, Don Lafferty, partecipante al posto di Tinsley, perderà per 1 a 0, dopo 31 pareggi, a cui seguirà il ritiro del programma dalle competizioni, ad opera dello stesso Schaffer, nel 1996.

Tuttavia, la sfida più importante e famosa tra uomo e macchina, avverrà a fine anni ‘90, con Garry Kasparov, campione mondiale di Scacchi e il computer Deep Blue dell’IBM, quando, dopo una cocente sconfitta nel 1996 contro il campione, nel 1997, ottenne la vittoria, con lo sconvolgimento generale di tutti, soprattutto del campione, che accusò IBM di aver imbrogliato, accuse che non troveranno mai risposta, anche a causa dello smantellamento di Deep Blue e alla mancata presentazione dei tabulati a Kasparov, facendo sorgere varie teorie e speculazioni al riguardo, come quella che fosse stato un bug a far vincere la macchina, creando una mossa illogica che aveva confuso il campione, pensando adottasse una strategia diversa.


Un nuovo obiettivo: comunicare con le macchine per risolvere i problemi.

Tutto questo per capire che, almeno inizialmente, le I.A. erano considerate semplici programmi, basate sulla potenza di calcolo dei processori e sulla potenza dei computer di quegli anni, capaci di risolvere calcoli e operazioni complesse in poco tempo, rispetto alla controparte umana e, sebbene abbiano dimostrato di evolversi rapidamente nel corso degli anni ‘80 e ‘90, avevano un focus molto limitato sulla comunicazione, basandosi su un modello unidirezionale, da uomo a macchina, dove il primo comunica alla seconda solo per ottenere il miglior risultato, nel miglior tempo possibile, correggendone gli eventuali errori, visto che le macchine non erano in grado di trovare una soluzione da sole, senza l’aiuto umano, ma sarà proprio da questo modello che nasceranno le prime I.A. e dal quale si evolveranno, per arrivare a risolvere da sole i vari problemi a cui verranno sottoposte e sarà l’inizio di un nuovo capitolo nel campo della comunicazione, come vedremo nella seconda parte di questa rubrica, basata sulle conquiste recenti e di come la comunicazione giochi un ruolo chiave nello sviluppo delle I.A..