Un tempo relegati al mondo della fantascienza, i dispositivi di interpretariato in tempo reale stanno diventando realtà. Si tratta di piccoli dispositivi che sussurrano discretamente all’orecchio dei parlanti durante una conversazione. Una nuova tecnologia possibile grazie all’evoluzione dell’intelligenza artificiale e del cloud computing.

Al Consumer Electronics Show, svoltosi a Las Vegas lo scorso week end, varie aziende hanno presentato dispositivi di interpretariato in tempo reale. Dispositivi palmari o auricolari wireless sempre più sofisticati che consentono a persone che parlano lingue diverse di conversare in tempo (quasi) reale.

Gli auricolari “Pilot” del Waverly Lab traducono 15 lingue per un prezzo che oscilla tra i 180$ e i 250$. Questo tipo di dispositivo permette a ogni partecipante alla conversazione di parlare la propria lingua e intendere (e farsi intendere da) gli altri.

Durante una breve dimostrazione a Las Vegas, un giornalista francofono dell’AFP è stato prontamente tradotto nelle orecchie di Andrew Ochoa, il capo di Waverly Labs, anglofono. La voce del giornalista francese è stata inviata al cloud dallo smartphone di Ochoa, dove l’app relativa può anche creare una trascrizione scritta della conversazione.

I computer dei data center del cloud interpretano ciò che viene detto e inviano la traduzione appropriata agli ascoltatori che partecipano alla conversazione, ha spiegato Ochoa, CEO di Waverly Labs, fondata nel 2014 a New York. Si tratta di un processo piuttosto complesso, che implica quindi un ritardo di alcuni secondi dovuto alle interpretazioni multilingua.

L’interpretariato in tempo reale è stato a lungo un sogno relegato al mondo della fantascienza

In “Guida galattica per autostoppisti”, il pesce Babel traduce automaticamente le conversazioni dei personaggi vivendo nel loro canale uditivo e nutrendosi solo di energia delle onde cerebrali. Questi dispositivi sono diventati una realtà solo di recente, grazie alla crescente potenza e velocità dei dispositivi mobili, dell’intelligenza artificiale e delle connessioni wireless.

“Applichiamo alcune caratteristiche dell’IA, come l’apprendimento automatico e la rete neurale, ai modelli di traduzione”, ha detto Ochoa. “Queste tecnologie si sono evolute abbastanza da rendere possibile il progetto.”

Le reti neurali del software possono essere addestrate a comprendere anche frasi che contengono parole nuove, eliminando la necessità di inserire nei sistemi interi dizionari.

In meno di un anno sono state vendute circa 35.000 paia di auricolari Pilot. I principali acquirenti includono grandi aziende e hotel che hanno a che fare con clienti di nazionalità diverse, spiega Ochoa.

Molto diverso è il dispositivo Pocketalk introdotto dalla società giapponese Sourcenext. Si tratta di un device che non prevede la necessità di uno smartphone e che nasce come strumento per le Olimpiadi di Tokyo nel 2020.

“Pensando alle Olimpiadi del 2020, ci siamo resi conto che molti giapponesi parlano solo giapponese”, ha detto il portavoce di Sourcenext Richard Gallagher.

Pocketalk costa 299$, assomiglia a un cellulare di prima generazione e può tradurre fino a 74 lingue.

“Grazie all’apprendimento automatico, il nostro software riconosce sempre meglio le diverse pronunce e si adatta all’utente”, ha riportato Gallagher.

Pocketalk ha avuto un grande successo nelle vendite al dettaglio: principalmente per taxi, hotel e ristoranti.

Google nel frattempo offre software di traduzione gratuiti associati ai suoi auricolari Pixel lanciati due anni fa. Questo fine settimana al CES, Google ha annunciato l’ampliamento delle capacità di traduzione dei propri prodotti, grazie all’evoluzione del suo software di assistenza virtuale.

Traduzione dell’articolo di Julie CHARPENTRAT (AFP) apparso su Japantoday.com

 

Pin It on Pinterest