di
Stefano Manini
Esperto ReteComuni, ANCI Lombardia
Negli ambienti informatici, e non solo, si parla molto delle grandi potenzialità dell’impiego diffuso dell’ intelligenza artificiale. I principali fornitori di servizi Cloud quali Amazon Web Services, IBM Watson, Mirosoft Azure, Google ecc. hanno ormai disponibili a catalogo diversi servizi avanzati che permettono, per esempio, di tradurre il linguaggio naturale in test, e viceversa; tradurre la frase in tempo reale, cambiando lingua a piacimento; riconoscere automaticamente volti o paesaggi da immagini digitali e molto altro ancora. Questi servizi web possono essere integrati dagli sviluppatori anche nelle applicazioni esistenti, permettendo una veloce diffusione di queste funzionalità avanzate.
Diventa quindi possibile interagire con i computer e gli oggetti connessi in rete ( IoT ) semplicemente utilizzando la voce, oppure accedere in un locale o a un servizio facendosi riconoscere da una telecamera. Niente di nuovo, se pensiamo che dietro a questi servizi vi siano persone, esperti traduttori o addetti alla sicurezza, ma il bello è che dietro vi sono invece algoritmi di intelligenza artificiale che processano in tempo reale i dati e prendono decisioni automaticamente. Più precisamente questo tipo di servizi fa riferimento a un settore dell’Intelligenza Artificiale denominato “Cognitive Computing”, che trova una immediata applicazione nella semplificazione del rapporto uomo / macchina.
La parte difficile sta nello studiare come estrarre conoscenza, per ciascuna applicazione, dai dati che abbiamo già raccolto o che ci arrivano attraverso flussi diversi e magari non strutturati. Qui entrano in campo i “Data Scientist”, specialisti che conoscono le tecniche di Apprendimento Automatico (“Machine Learning”) e sono in grado di predisporre modelli che “apprendono” quali dati sono più significativi di altri; come classificare i dati e come raggrupparli in modo omogeneo; il tutto ottimizzando anche il tempo/macchina per “rispondere” in tempi rapidi anche davanti a montagne di dati. Questi metodi sono già ampiamente utilizzati in rete per identificare le email da etichettare come Spam, per le analisi del “sentiment” nei socialnetwork, per classificare le categorie di film nei siti on-demand, ecc.
Per le nostre città sono allo studio diverse applicazioni orientate prevalentemente alla gestione del traffico e della sicurezza. La possibilità di riconoscere non solo i volti ma anche il “tipo” di azione che si sta svolgendo davanti alla telecamera permetterà un intervento più tempestivo delle forze dell’ordine. Tipi di azione quali una rissa o un borseggio possono essere riconosciuti automaticamente da un applicazione di intelligenza artificiale e classificati con una certa percentuale di sicurezza.
Un altro aspetto importante è la disponibilità sempre maggiore di potenza di calcolo direttamente connessa con i sensori. Gli algoritmi prima descritti possono ora essere caricati direttamente su microprocessori installati insieme ai sensori e permettere applicazioni impensabili sino a pochi anni fa. Questi microprocessori possono avere una velocità di esecuzione anche molto superiore ad un comune personal computer, elaborando i dati direttamente sul posto (Edge Computing).
La combinazione di queste tecnologie apre grandi possibilità per le nostre SmartCity che devono progettare una nuova organizzazione dei servizi basata anche sulla valorizzazione dei dati che verranno raccolti in quantità sempre crescente dalle nostre città. Per questo aspetto segnaliamo una fra le prime iniziative di valutazione delle infrastrutture e delle piattaforme informatiche per l’IoT avviata dalla Città di Torino.