Analisi

Tutti i progetti di intelligenza artificiale al servizio della cybersecurity

Da Google al MIT si investe in machine learning per aumentare le difese contro le minacce informatiche

Google ha realizzato dei sistemi di apprendimento automatico in grado di creare i propri algoritmi crittografici, ultimo successo dell’intelligenza artificiale nel campo della cyber security.

Google Brain e le reti neurali che si parlano in linguaggio cifrato

Google Brain, unità che lavora su progetti sull’intelligenza artificiale con sede in California, avrebbe concretizzato un sistema per criptare i dati, basandosi – nello sviluppo tecnico del programma – sul modello delle reti neurali. Due dispositivi, chiamati Bob e Alice, spiega Singularity Hub, avevano il compito di scambiarsi dei messaggi e nasconderli, al contempo, a un terzo dispositivo, chiamato Eva. A nessuno dei tre è stato ‘spiegato’ come crittografare i messaggi, ma a Bob e ad Alice è stata consegnata una chiave di sicurezza condivisa a cui, invece, Eva non aveva accesso. La maggior parte dei test si è conclusa positivamente. I messaggi fra Bob e Alice sono infatti stati scambiati senza che Eva riuscisse a decifrarli.

googlebrain-570-x-380

I nuovi sistemi  – secondo TechCrunch – avrebbero curiosamente agito secondo dinamiche molto differenti da quelle abitualmente adottate dai sistemi crittografici elaborati dall’essere umano. Molto probabilmente, gli approcci delle macchine risulteranno molto meno accurati rispetto ai quelli degli esperti informatici e sono, in un certo senso, anche particolarmente complessi da cogliere, proprio per via del metodo poco chiaro usato dalle reti neurali per intervenire nei problemi.

Ciò, inevitabilmente, solleva secondo il New Scientist alcune domande su quanto potrebbe essere facile per gli esseri umani violare una crittografia generata dai computer e, dunque, sulle garanzie di sicurezza del sistema. Le prestazioni di Eva, inoltre, sembrerebbero confermare i sospetti avanzati da alcuni esperti sull’uso delle tecnologie basate sulle reti neurali, secondo i quali lascerebbero ampie falle nei sistemi di encryption.

Secondo i ricercatori, però, l’uso delle reti neurali potrebbe rivelarsi particolarmente efficace sia per la comprensione dei metadati comunicativi sia per l’analisi del traffico delle reti informatiche. Sarebbe dunque questo il settore in cui, a detta degli esperti, il machine learning potrebbe fornire un prezioso contributo alla sicurezza informatica, soprattutto in relazione alla capacità dell’intelligenza artificiale di elaborare molti più dati rispetto ad altri metodi. Si sottolinea, inoltre, come i deficit di sicurezza informatica potrebbero garantire all’intelligenza artificiale ampie fette di mercato, ad esempio con software anti-virus che utilizzano un insieme di tecnologie AI per apprendere costantemente nuovi comportamenti dei malware, riconoscendone così i mutamenti adottati per aggirare i sistemi di controllo.

L’intelligenza artificiale ha bisogno degli esseri umani?

Secondo TechCrunch, però, l’apprendimento automatico tenderebbe ancora a generare troppi falsi positivi, per tale ragione gli ultimi approcci si starebbero concentrando su come favorire forme di collaborazione fra l’intelligenza artificiale e gli esseri umani.

Sia la finlandese F-Secure sia il MIT Computer Science and Artificial Intelligence Lab avrebbero difatti sviluppato sistemi di apprendimento automatico di cyber triage. La tecnologia si baserebbe sul filtraggio della maggior parte delle informazioni che passano attraverso una rete, riducendo così drasticamente il numero di potenziali minacce con cui gli umani dovrebbero avere a che fare.
IBM vorrebbe poi compiere un passo ulteriore e sfruttare le capacità di elaborazione del linguaggio naturale del ‘suo’ Watson (sistema di intelligenza artificiale in grado di rispondere a domande espresse in un linguaggio naturale) per realizzare un servizio di cloud entro la fine dell’anno e fornire un ‘assistente’ tecnologico esperto.

cyberchallenge

Cyber Grand Challenge

Ad agosto, la Darpa – l’agenzia governativa del Dipartimento della Difesa degli Stati Uniti (DoD) incaricata dello sviluppo di nuove tecnologie per uso militare – ha tenuto la prima edizione del Cyber Grand Challenge – il primo concorso di hacking che ‘mette in competizione’ le apparecchiature tecnologiche. Questi dispositivi hanno utilizzato differenti approcci AI per rilevare in maniera automatica le vulnerabilità dei software. Lungi dall’essere perfetti, con alcuni dei macchinari rimasti inattivi per gran parte della competizione e uno che avrebbe persino messo ko la macchina che doveva proteggere, alcuni bot (fra cui Mayhem, che ha poi vinto e gareggiato anche contro gli esseri umani alla convention hacker Defcon, dove invece è arrivato ultimo) hanno svolto correttamente il proprio lavoro, sorprendendo molti degli esperti sia per il livello di sofisticazione sia per la velocità operativa che li caratterizzava.

La Electronic Frontier Foundation (EFF) avrebbe posto l’accento sulle gravi conseguenze che l’automazione del processo potrebbe generare, invitando a creare un codice di condotta condiviso per scongiurare questo tipo di pericoli. Se questi sistemi sfuggissero al controllo dei loro creatori, ha spiegato, non vi sarebbe alcuna garanzia di protezione.

Fonte: CyberAffairs

Un Commento a “Tutti i progetti di intelligenza artificiale al servizio della cybersecurity”

  1. Gino Martorelli

    Molto interessante, ma parlare di “nuova frontiera” è esagerato, l’AI era già impiegata almeno dagli anni ’90 nella sicurezza informatica, ad esempio ci sono dei bei lavori di quegli anni sull’addestramento di reti neurali per apprendere le abitudini degli utenti nell’uso e nella interazione di macchine con OS linux ed intercettare l’accesso di un estraneo ad un account linux (o unix like). Bisognerebbe poi fare attenzione a come descriviamo i progetti AI e a come portiamo nella narrativa questioni puramente tecniche. L’AI si fonda su algoritmi che girano su macchine, usare termini e parole -ad es. linguaggio- dando per scontato che abbiano lo stesso significato in contesti tanto diversi è fuorviante e anche piuttosto superficiale, è ormai assodato che l’apprendimento di una lingua e di competenze comunicative nell’essere umano è strettamente legato allo sviluppo di contesti emotivamente condivisi con altri esseri umani. Una macchina non apprende un linguaggio, fa qualcosa di compltamente diverso, per quanto affascinante, resta una macchina.

    Rispondi

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Dai banchi di scuola al pitch. I finalisti del progetto “A Scuola di Startup” a DigithON 2017

Il progetto realizzato da AuLab ha coinvolto per il terzo anno consecutivo studenti delle scuole secondarie superiori. Il team vincitore sarà premiato dal Gruppo Giovani Imprenditori di Confindustria Bari e Bat. Abbiamo intervistato Davide Neve, CEO di AuLab

Imparare a guidare con la realtà virtuale e aumentata. Il progetto di Guida e Vai

Salvatore Ambrosino, cofondatore e direttore commerciale di Guida e Vai, ha ideato un nuovo sistema di insegnamento per preparare all’esame di teoria le nuove generazioni. I ragazzi potranno simulare con smartphone e visore le situazioni che potrebbero incontrare su strada

Hephaestus Venture, il fondo che porta le startup italiane in Brasile

Il fondo ha la missione di supportare le startup nei processi di internazionalizzazione verso il Brasile, un mercato emergente e in forte crescita, se si pensa che il 57.4% dei finanziamenti in America Latina si concentra in questo Paese.

Cyber-Diplomacy | Che cos’è e qual è il ruolo dell’Italia (nel G7)

Le relazioni internazionali sono chiamate ad avere un ruolo specializzato al Cyber Spazio e devono agire al suo interno per supportare il complesso di accordi e regole di carattere internazionale oggi ancora incompleto in proposito