Un riassunto completo di tutto quello che è stato detto alla Conferenza Google. La novità principale è il machine learning. E’ appena iniziata un’era dove ci si sposta dal mobile all’intelligenza artificiale.

Alla Google I/O Conference sono state presentate tante novità e tanti aggiornamenti ad applicazioni o prodotti già esistenti. L’implementazione del machine learning (intelligenza artificiale in grado di apprendere automaticamente) in tutti questi componenti inizia a farsi sentire e diventa una parte importante dello sviluppo.

Tutte le app e tutti i servizi diventano più intelligenti, come se riuscissero a pensare con la propria “mente” e fornirci i risultati che vogliamo, con molta meno fatica.

Oggi siamo di fronte a un nuovo cambiamento in campo informatico: il passaggio da mobile all’intelligenza artificiale. Per questo, ci troviamo a reinventare i nostri prodotti, adattandoli a un mondo che consente di interagire con la tecnologia in maniera più naturale e continuativa. Pensate al motore di ricerca Google: è stato creato sulla nostra capacità di comprendere testi all’interno di pagine web. Adesso, grazie ai progressi nell’ambito del deep learning, le persone possono usare immagini, foto e video come mai prima d’ora. La vostra fotocamera può “vedere”, voi potete parlare con il vostro telefono e ricevere delle risposte. Linguaggio e vista stanno diventando fondamentali per l’informatica tanto quanto la tastiera o gli schermi multi-touch.

L’Assistente Google è un ottimo esempio di questi passi avanti. È già attivo su oltre 100 milioni di dispositivi e diventa ogni giorno più utile. Ora Google Home è in grado di distinguere voci diverse, offrendo alle persone un’esperienza più personalizzata quando interagiscono con il dispositivo. Siamo anche in grado di rendere la fotocamera dello smartphone uno strumento capace di svolgere dei compiti. Google Lens è un insieme di funzionalità di calcolo basate sulla vista, in grado di comprendere ciò che state cercando, aiutandovi a intraprendere azioni basate su queste informazioni.
Invece di fare salti mortali per trovare la lunga e complicata password del Wi-Fi sul retro del router, il vostro telefono ora può aiutarvi a riconoscere la password, capire che state tentando di accedere alla rete Wi-Fi e autenticare l’accesso in modo automatico. E per utilizzare queste nuove funzionalità, non avete bisogno di imparare nulla di nuovo. L’interfaccia e l’esperienza utente possono essere molto più intuitive rispetto, ad esempio, al copiare e incollare da un’app all’altra dello smartphone. La prima cosa che faremo sarà introdurre le funzionalità di Google Lens all’interno dell’Assistente e di Google Foto, per poi estenderlo anche agli altri prodotti.

Tutto questo richiede risorse computazionali adeguate. L’anno scorso in occasione dell’I/O abbiamo annunciato la prima generazione di TPU che ci permettono di eseguire velocemente e in modo più efficiente i nostri algoritmi di machine learning. Oggi annunciamo la nostra prossima generazione di TPU: Cloud TPU, ottimizzati sia per le inferenze che per l’apprendimento e capaci di elaborare molte informazioni. Renderemo disponibile Cloud TPU su Google Compute Engine, in modo che le aziende e gli sviluppatori possano utilizzarlo.

Per noi è importante che questi progressi vadano a vantaggio di tutti, non solo degli utenti di Google. Siamo convinti che i problemi sociali più complessi possano trovare soluzioni rivoluzionarie se scienziati e ingegneri avranno a disposizione strumenti di calcolo migliori e più potenti e accesso immediato alla ricerca. Ma al momento gli ostacoli sono ancora troppi.

Ecco perché abbiamo deciso di sviluppare Google.ai, che concentra le nostre iniziative nel campo dell’intelligenza artificiale in un unico impegno capace di ridurre gli ostacoli e accelerare il modo in cui i ricercatori, gli sviluppatori e le aziende operano in questo campo.

Un modo per rendere più accessibile l’intelligenza artificiale è semplificando la creazione dei modelli di apprendimento automatico, le cosiddette reti neurali. Attualmente, la progettazione di reti neurali è estremamente impegnativa in termini di tempo e richiede competenze che limitano il suo utilizzo a una piccola comunità di scienziati e ingegneri. Ecco perché abbiamo creato un approccio chiamato AutoML, che dimostra che è possibile per le reti neurali progettare altre reti neurali. Speriamo che AutoML acquisisca capacità che solo pochi dottorandi hanno oggi e che nell’arco di tre o cinque anni possa permettere anche a centinaia di sviluppatori di progettare nuove reti neurali per le loro esigenze.

Oltre a questo, Google.ai permette a scienziati e sviluppatori di Google di collaborare su problemi in una vasta gamma di discipline, con risultati promettenti. Abbiamo utilizzato il machine learning per migliorare l’algoritmo che rileva l’avanzamento del tumore al seno nei linfonodi adiacenti. Abbiamo anche osservato notevoli progressi dell’intelligenza artificiale per quanto riguarda il tempo e la precisione con cui i ricercatori possono predire le proprietà delle molecole nonché la sequenza del genoma umano.

Questo sviluppo non è solo finalizzato alla progettazione di dispositivi futuristici o allo scopo di condurre ricerca all’avanguardia. Pensiamo anche che possa aiutare milioni di persone oggi, democratizzando l’accesso alle informazioni e aprendo nuove opportunità. Ad esempio, quasi la metà dei datori di lavoro americani afferma di avere ancora problemi ad assumere nuove risorse per le posizioni di lavoro aperte. Allo stesso tempo, chi sta cercando lavoro spesso non sa che c’è una posizione aperta proprio dietro l’angolo, perché la natura degli annunci di lavoro – elevata rotazione, poco traffico, incongruenza nei titoli professionali – li ha resi difficili da classificare per i motori di ricerca. Attraverso una nuova iniziativa, Google for Jobs, vogliamo mettere in contatto aziende e candidati e aiutare chi cerca lavoro a trovarlo. Come parte di questo impegno, nelle prossime settimane lanceremo una nuova funzionalità della Ricerca di Google che permetterà ai candidati in cerca di lavoro di trovare offerte a ogni livello di esperienza e retribuzione, incluse offerte di lavoro storicamente difficili da indicizzare e classificare, come quelle nei settori dei servizi e del commercio al dettaglio.

È affascinante realizzare come l’intelligenza artificiale stia iniziando a produrre frutti che le persone possono già cominciare a raccogliere. C’è ancora molta strada da fare per arrivare a un mondo in grado di sfruttare appieno le potenzialità dell’intelligenza artificiale. Ma più facilitiamo l’accesso alla tecnologia – sia in termini di strumenti che le persone possono utilizzare sia di modalità di applicazione – più tutti ne potremo beneficiare. Al più presto.

L’evento è iniziato con i Numeri:

  • Android può vantare di 2 miliardi di dispositivi attivi mensili. E’ il sistema operativo più diffuso al mondo e cresce ogni giorno. Soltanto un paio di anni fa era stato raggiunto il miliardo di dispositivi ma oggi si raddoppia. Ovviamente i 2 miliardi di dispositivi sono quelli attivi e in uso. E’ chiaro che sono stati venduti molti più di 2 miliardi di dispositivi Android.
  • Google Drive ha 800 milioni di utenti attivi al mese
  • Google Photo ha 500 milioni di utenti attivi al mese e vengono caricate 1,2 miliardi di foto al giorno

Google Assistant

E’ stato giudicato come l’assistente vocale più evoluto tra tutti. Per il momento è disponibile sui Google Pixel e soltanto in inglese ma è stato annunciato il supporto a nuove lingue. A partire da questa estate, Google Assistant supporterà il francese, il tedesco, il portoghese del brasile ed il giapponese. Entro la fine dell’anno supporterà altre lingue, compreso l’italiano.

In aggiunta, l’assistente Google Assistant verrà reso disponibile anche su iPhone come un’applicazione da installare tramite App Store. L’arrivo è previsto per oggi ma probabilmente sarà disponibile soltanto in America per poi arrivare in Italia entro fine anno, insieme al supporto per l’italiano.

Google Assistant diventa sempre più intelligente. Grazie all’integrazione di Lens sarà possibile inquadrare un soggetto, scattargli una foto (ad esempio un cartellone pubblicitario) e ottenere un riconoscimento del testo, degli oggetti e quant’altro, per avviare velocemente azioni in base a quello che si vede nella foto.

Assistant potrà anche ricercare oppure avviare traduzioni in tempo reale. Potremo sia parlare per ottenere la traduzione, che scrivere o inquadrare testo in un altra lingua con la fotocamera.

Google Assistant comprende il linguaggio naturale. Potremo parlare e scrivere senza sembrare dei robot. Potremo anche comprare oggetti ed accessori soltanto con la nostra voce. Arriverà anche sulle Android TV, rendendo gli apparecchi molto più intelligenti.

La parte più interessante è che Google ha aperto Google Assistant agli sviluppatori che potranno quindi aggiungere nuove azioni. In questo modo l’assistente capirà sempre più comandi e riuscirà ad effettuare più azioni.

Android O

Passiamo alla prossima versione di Android. Google ha velocizzato l’accensione del 50% rispetto alla versione precedente. Ha anche ridotto le risorse che vengono utilizzate quando un’app gira in background. E’ stata introdotta una novità chiamata Android Studio Profilers, che permette agli sviluppatori di capire come ottimizzare le proprie applicazioni in maniera tale da avere prestazioni migliori ma anche un minor consumo di batteria e di risorse in background.

Android O ridisegna le impostazioni, nuove emoji e tantissime nuove funzioni (appena citate nell’evento). Google ha rilasciato la prima beta pubblica, disponibile all’indirizzo android.com/beta.

Kotlin

Viene ufficializzato Kotlin come linguaggio di programmazione ufficiale per Android. Questo rende gli sviluppatori molto più produttivi.

Fin ora per sviluppare applicazioni per Android si utilizzava il linguaggio Java. Kotlin poteva già essere utilizzato ma adesso è supportato ufficialmente da Google e quindi integrerà nuove librerie e nuove possibilità. Gira su JVM (Java Virtual Machine) ed ha molte somiglianze con la struttura del linguaggio Java.

Kotlin permette agli sviluppatori di tradurre i propri lavori anche su altre piattaforme. Infatti può girare come codice nativo su iOS e Mac ma può anche essere compilato come JavaScript per lo sviluppo web.

Google Home

Gli speaker intelligente di Google ottengono tante nuove funzioni:

  • Assistenza proattiva: su Google Home arriveranno le notifiche proattive con dati utili come le informazioni sul traffico.
  • Chiamate: con Google Home sarà possibile chiamare un qualsiasi numero, semplicemente pronunciando “Hey Google, chiama [X]”. Inizialmente la funzione sarà disponibile solamente negli Stati Uniti e Canada, per poi espandersi in tutto il mondo.
  • IntrattenimentoSpotify, SoundCloud, Deezer ed altri servizi arriveranno su Google Home. Sarà inoltre possibile trasferire i propri brani dallo smartphone o tablet direttamente allo speaker tramite Bluetooth. Altri servizi di streaming come HBO Now o Hulu si connetteranno direttamente alla TV tramite Chromecast per trasmettere i contenuti video.
  • Risposte multimediali: se la risposta ad una vostra domanda contiene una fotografia o contenuto multimediale, Google Home la trasmetterà alla TV tramite Chromecast o ad un qualsiasi altro schermo come quello di uno smartphone.

Gmail con Smart Reply

Il Machine Learning applicato a GMail permetterà all’applicazione di riconoscere il contenuto delle email e generare possibili risposte già pre-compilate. Basterà cliccare su una delle tre alternative e potremo inviare le risposte in tutta velocità.

Google Foto

L’applicazione è stata ulteriormente migliorata con 3 nuove funzioni:

  • Suggerimenti Condivisione: Adesso l’app riconosce le persone nelle foto e si rende conto se questi scatti sono soltanto in nostro possesso o se sono stati condivisi con gli amici. Nel caso in cui dovesse riconoscere un amico in una foto quindi, apparirà un popup che ci chiederà “Vuoi condividere queste foto anche con lui?” e con un tocco riusciremo ad inviargliele.
  • Librerie Condivise: Proprio come fa iCloud, Google Photo permetterà di creare librerie condivise con altri utenti e dispositivi. Creando una libreria condivisa con la vostra ragazza, ad esempio, tutte le foto che inserirete in questa “cartella” saranno disponibili sia nel vostro Google Photo che nel suo. Il riconoscimento automatico dei soggetti potrà semplificare ulteriormente questa operazione.
  • Libri fotografici: L’intelligenza artificiale di Google Photo sarà in grado di farci risparmiare delle ore per selezionare le migliori foto che vogliamo stampare su un libro. Potremo selezionare tutte le foto che vogliamo, senza tenere conto di quelle migliori, quelle che non sono venuto sfocate, quelle doppie e così via. Automaticamente il software rimuovere le immagini inutili o brutte, creando un libro con tutto quello che resta. Ovviamente potremo guardare le foto selezionate dall’AI ed eventualmente sostituirle ma il processo è abbastanza buono e soprattutto molto molto rapido. I libro potranno avere copertina rigida oppure soft, con un prezzo variabile da 9,99$ a 19,99$ per 20 pagine di foto.

Presto Google riuscirà anche a rimuovere oggetti dalle foto automaticamente:

L’articolo Tutto l’Evento Google I/O 2017 in un solo articolo: Ecco tutte le novità ed i punti più importanti proviene da iSpazio.

Annunci