La mente neurale di Google Traduttore

da corriere.it

di Federico Cella

L’avevano anticipato alla fine dello scorso anno, nelle parole del capo Sundar Pichai: “Il 2017 sarà l’anno dell’Ai first”. Svolgendo il concetto, tutto a Mountain View sta girando attorno alle macchine intelligenti. Meglio ancora: alle macchine capaci di imparare. È l’idea del machine learning alla base dei laboratori di punta di Big G, cioè creare passaggi logici, digeribili a una macchina, perché questa possa imparare e andare oltre la sua programmazione di base. L’algoritmo funziona per superare i suoi stessi limiti. Ce ne aveva parlato Anna Ukhanova, a capo del laboratorio di Zurigo di Google. E l’avevamo sperimentato di persona con alcuni semplici software, di fatto in grado di interpretare dei disegni a mano libera (e indovinarli) piuttosto che un pattern musicale suonato in diretta (cui dare un supporto di accompagnamento).

Tutto si basa su quelle che vengono definite reti neurali, un tipo di struttura che si basa su connessioni fisiche e capacità di calcolo che imitano il funzionamento del cervello animale. Siamo lontani dalla replica del cervello umano, lo siamo tanto per iniziare da un punto di vista numerico: un cervello medio consta di neuroni per un ordine intorno ai 100 miliardi, ogni neurone è connesso fino ad altri 10 mila neuroni, il che significa che il numero di sinapsi da imitare ruota intorno a cifre tra i 100 e i 1000 trilioni (migliaia di miliardi). Siamo lontani, e qui c’è il bivio rispetto alla fantascienza alla Terminator, da un punto di vista “filosofico”. Le reti neurali imitano la struttura del cervello animale – Google è arrivato a un network comparabile alla mente di un topo – solo da un punto di vista strutturale: l’enorme mole di dati che questi sistemi studiano non li rendono più intelligenti, verso l’onniscienza (e dunque una possibile valutazione dell’essere umano come inutile e/o dannoso). Quello che viene loro dato in pasto serve a creare connessioni, a riscontrare similitudini. Per arrivare a imparare cose che prima non sapevano perché “capiscono” le ricorrenze, il contesto. L’esempio recente più classico è quello del Cat Paper: dopo aver passato e digerito milioni di immagini fisse prese dai video caricati su Youtube, la rete neurale da un miliardo di “sinapsi” di Brain è riuscita a individuare da sola – nessuno l’aveva impostato nel suo cervellone – che cos’è un gatto e come è fatto. È andato per somiglianze ed esclusioni. Discorso a dir poco affascinante che necessiterebbe pagine pagine, come quelle scritte dal New York Times. Dove un neuroscienziato di Google Brain, Greg Corrado, ha sintetizzato così il tema complesso: “Non stiamo parlando di cosa la macchina conosce o capisce ma di cosa fa. E, cosa più importante, di cosa ancora non sa fare”.

Per restare sul semplice, e “notiziabile”, Google porta un’applicazione di queste reti alla massa, nello specifico al pubblico italiano tramite l’applicazione Traduttore. Una vera rivoluzione copernicana sui testi – affrontati a sequenze di frasi, comparate con altre simili, e non mettendo assieme le singole parti – già messa a punto nei mesi scorsi per altre lingue. E che da oggi è disponibile anche per noi. Cosa comporta nell’uso quotidiano di un servizio da 500 milioni di utenti al mese per circa 140 miliardi di parole al giorno l’abbiamo testato con un semplice confronto tra testi. Sfruttando lo stesso passaggio utilizzato da Jun Rekimoto, professore di informatica all’Università di Tokyo, quando con stupore ha osservato il cambiamento di Google Translator in giapponese lo scorso novembre. L’incipit di “Le Nevi del Kilimangiaro” di Ernest Hemingway. A voi indovinare qual è la traduzione fatta da Giuseppe Trevisani per l’edizione del 1959 di Mondadori, quella di Google Traduttore oggi e quella di GT nei giorni scorsi. Pre-iniezione di intelligenza.

La differenza tra i primi due è solo una questione di piedi (e di articoli).

1 – Il Chilimangiaro è un monte coperto di neve alto 5890 metri e si dice che sia la più alta montagna africana. La vetta occidentale è detta “Masai Ngài”, Casa di Dio. Presso la vetta c’è la carcassa stecchita e congelata di un leopardo. Nessuno ha saputo spiegare che cosa cercasse il leopardo a quell’altitudine.

2 – Kilimanjaro è una montagna innevata alta 19,710 piedi, e si dice che sia la montagna più alta dell’Africa. La sua vetta occidentale è chiamata la Masai “Ngaje Ngai,” la Casa di Dio. Vicino alla vetta occidentale c’è la carcassa secca e congelata di un leopardo. Nessuno ha spiegato cosa il leopardo cercava a quella quota.

3 – Kilimanjaro è 19,710 piedi del monte coperto di neve, e si dice che la montagna più alta in Africa. Top of the west “Ngaje Ngai” in lingua Masai, è stato indicato come la casa di Dio. La parte superiore vicino a ovest, c’è una secca, carcassa congelata di un leopardo. Sia il leopardo era quello che la domanda a quella quota, non c’è è che nessuno ha spiegato.



Leave a Reply

Your email address will not be published. Required fields are marked *