Blog sulla sicurezza informatica e l’informazione dei sistemi

Andrea Biraghi, Cyber Security manager e direttore della divisione Security and information Systems, lavora da anni per il mantenimento della sicurezza dei sistemi informativi. In una società sempre più digitalizzata ed interconnessa è divenuto ormai indispensabile prendere atto delle minacce esistenti nella rete Internet: solo un costante impegno ed aggiornamento rendono possibile affrontare e combattere i Cyber criminali e riprendersi in fretta dalla loro violazioni. La posta in gioco è alta e la sicurezza dei servizi web è fortemente legata al nostro sviluppo economico: basti pensare al rapido aumento delle connessioni, degli utenti, l’aumento del valore di numerose transazioni effettuate attraverso le reti, la crescita delle imprese legate al commercio elettronico.

Tag: intelligenza artificiale

Intelligenza-artificiale-cyber security-andrea-biraghi

Intelligenza artificiale e cyber security

Anche se l’intervento umano è ancora considerato essenziale nel settore l’intelligenza artificiale (IA) è oggi in prima linea nella battaglia della cyber security per salvare le organizzazioni dagli hacker. Sebbene l’intelligenza artificiale abbia compiuto progressi significativi nelle sue applicazioni in tutti i settori, al momento il suo utilizzo nella sicurezza informatica può ancora essere definito come “nascente”.

L’IA – che parte dll’emulazione del pensiero umano – infatti aiuta ad esempio i professionisti e gli esperti nell’analisi del riconoscimento vocale e comprendere in modo accurato il crimine informatico in un momento in cui le aziende e le organizzaziini – esposte alle crescenti minacce – richiedono tecnologie di sicurezza elevate.

L’IA sta dicentando anche un potente strumento nel campo della protezione dei dati e contro attacchi potenzialemnte articolati, derivanti dallo sviluppo della tecnologia 5G e dell’Internet of Things che si stima porteranno ad attacchi informatici di quinta generazione– multi-dimensionali, multi-stadio, multi-vettore, polimorfici – e su larga scala che richiedono una prevenzione in tempo reale e continui aggiornamenti per evitare attacchi zeroda, oltre all’utilizzo di Firewall con funzioni avanzate di nuova generazione (NGFW).

Ma cosa è un attacco di Quinta Generazione? Un attacco cibernetico estremanente pericoloso e a grande scala, progettato per infettare più componenti di un’infrastruttura informatica, comprese le reti, le macchine virtuali istanze cloud e i dispositivi endpoint. Un attacco di questo tipo è in grado di superare le barriere di difesa dei FireWall: primi esempi di questo tipo di tacchi sono stati NotPetya e WannaCry.

Andrea Biraghi

Intelligenza artificiale e cyber security: benefici e rischi

In tutto questo non bisogna dimenticare che l’intelligenza artificiale può rappresentare un arma a doppio taglio: si necessita quindi mettere in conto che l’IA stessa possa essere violata la pari di ogni sistema e quindi rappresentare una perdita piuttosto che un benficio. Tra le tecnologie che devono investire in una solida sicurezza dell’IA la guida autonoma, i missili autonomi, telecamere di sicurezza e via dicendo.

Tra gli attacchi contro l’IA: l’alterazione dell’input dell’algoritmo (con inupt errati), informazioni false inserite nei data set che influiscono sui processi di data mining e attacchi alla privacy, dove in fase di addestramento l’IA può venire sfruttata per raccogliere informazioni sul suo algortimo.

I benefici e i vantaggi tuttavia sono numerosi, tra cui una maggiore efficienza e accuratezza degli analisti informatici, con una riduzione notevole del tempo di analisi e dei costi di rilevamento. Consente inoltre una risposta più veloce e quidni efficace alle violazioni, automatizzando le contromisure. Tra i benefici anche la possibilità di migliorare le analisi predittive e la mitigazione dei rischi.

Intelligenza-artificiale-strategia-di-intelligence-andrea-biraghi

Intelligenza artificiale come strategia di intelligence e l’accelerazione globale

Le applicazioni dell’intelligenza artificiale crescono senza sosta e viene utilizzata sempre più nell’intelligence per ordinare le vaste quantità di dati: in futuro però sarà molto di più di tutto questo, perchè la direzione è quella dell’estrazione di informazione di grande valore.

A livello globale ogni paese segue i suoi modelli, le sue priorità e le sue strategie con un uso pianificato dell’intelligenza artificiale, ma sebbene l’Europa abbia ha deciso di percorrere un percorso diverso dal resto del mondo che la vede pioniera della protezione dei dati personali, non è così per altri stati. Il piano dell’India è sostanzialmente diverso dall’EU per qaunto riguarda il consenso pubblico, facendo riferimento a “Con il consenso corretto e informato dei cittadini, questi dati resi anonimi possono essere condivisi ai fini dell’intelligenza artificiale e dell’analisi dei dati”. Le considerazioni etiche alla base della progettazione sono enfatizzate in Francia: “le considerazioni etiche devono essere pienamente prese in considerazione nello sviluppo di algoritmi di intelligenza artificiale” (France AI Plan, 2018).

Secondo lo studio di Brookings.edu che analizza le differenze nello sviluppo dei piani IA in 34 paesi, ogni piano nazionale richiede un’interpretazione e vengono identificate le seguenti aree: ricerca sull’intelligenza artificiale, dati sull’intelligenza artificiale, etica algoritmica, governance dell’IA e uso dell’IA nei servizi pubblici. Tuttavia i segnali diversi sono stati raggruppati in 4 categorie.

  1. Segnali tradizionali: viene fatta menzione dell’ammontare preciso dell’investimento effettuato nella ricerca sull’IA nel settore sanitario.
  2. Segnali di divulgazione involontaria: trasmettono informazioni vere, ma non inviate deliberatamente.
  3. Segnali opportunistici: non sono veri ma inviati deliberatamente. Un paese potrebbe dire che intende utilizzare l’intelligenza artificiale per i servizi pubblici, ma in realtà intende utilizzarlo per i sistemi basati sulla guerra.
  4. Segnali misti: trasmette involontariamente false informazioni: dichiarazione di utilizzo di dati pubblici anonimi nei sistemi di intelligenza artificiale, ma non riesce a farlo.

Leggi l’intera analisi: Analyzing artificial intelligence plans in 34 countries

L’impatto dell’Intelligenza artificiale sull’intelligence

Nel futuro si prevedono nuovi compiti per l’intelligenza artificiale che avranno un impatto significativo sulle analisi dell’intelligence, superando i limiti cognitivi umani. Inoltre l’intelligenza artificiale potrebbe aiutare ad abbinare l’analista giusto al compito giusto in modo che gli analisti possano lavorare sui loro punti di forza, consentendo al lavoro di essere svolto meglio e più rapidamente di prima. Ne parla Reuters, che riassume alcuni scenari, tra cui nuovi modelli che prevdono l’uso dell’IA su larga scala, l’apprendimento continuo e la convalida dei risultati che può essere eseguita durante la progettazione degli strumenti di intelligenza artificiale o la selezione dei dati di addestramento.

Leggi anche: Andrea Biraghi: intelligence per la sicurezza informatica nazionale

riconoscimento-facciale-intelligenza-artificiale-andrea-biraghi

L’UE ammette il riconoscimento facciale: mentre il Garante boccia il sistema in uso alle forze dell’ordine

Mentre l’UE ammette l’utilizzo del sistema di riconoscimento facciale tramite intelligenza artificiale, per la lotta al terrorismo e la sicurezza pubblica, il Garante boccia il sistema di riconoscimento in tempo reale utlizzato dalle forze dell’ordine. Tuttavia, anche nel regolamento europeo sono previste importanti eccezioni e limitazioni.

Bruxelles fissa i paletti per l’uso dell’intelligenza artificiale in Europa: i sistemi ad alto rischio per la sorveglianza di massa saranno vietati, con alcune eccezioni ammesse per la controversa tecnologia del riconoscimento facciale in caso di necessità per la lotta contro il terrorismo e la tutela della sicurezza pubblica. Sono i punti cardine della nuova proposta di legge, la prima sull’AI, che la Commissione Ue svelerà il 21 aprile.

Ansa – Ue vieta AI ad alto rischio, deroghe a riconoscimento volti

Secondo la bozza del documento che verrà presentato dalla Commssione Europea in data 21 aprile 2021 le aziende che non si conformeranno alle norme Ue potrebbero ricevere multe fino a 20 milioni di euro o al 4% del loro fatturato.

Questa tecnologia va comuqnue utilizzata pensando prima di tutto alle conseguenze e non mettendo a rischio le persone.

Giuseppe Busia, segretario generale del Garante, aveva chiarito che in materia di privacy, le garanzie per i cittadini sono essenziali: la sperimentazione può andare avanti ma vanno create delle regole perchè ne va della libertà di tutti.

Andrea Biraghi – Riconoscimento facciale e privacy: quali i progressi?

UE Riconoscimento facciale: le nuove regole

La nuova bozza prevede il divieto di sistemi di sorveglianza che possono essere utilizzate per manipolare il comportamento, le opinioni o le decisioni dei cittadini. Ci sarebbe infatti l’espresso divieto di utilizzare le tecnologie di IA per creare ed alimentare un sistema di valutazione del credito sociale.

…saranno sottoposte a ulteriori controlli tutte le applicazioni per valutare un punteggio sociale, la solvibilità creditizia dei cittadini,  determinare l’accesso all’istruzione. Saranno banditi, inoltre, i sistemi di reclutamento e di valutazione delle richieste di asilo e visti ma restano escluse dal regolamento tutte le applicazioni militari.  

RaiNews

Mentre l’Europa scende in campo per regolamentare l’utilizzo delle tecnologie di Intelligenza Artificiale soprattutto in campo biometrico, il Garante boccia l’utilizzo del sistema Sari Real Time da parte del ministero dell’Interno.

“Il sistema, oltre ad essere privo di una base giuridica che legittimi il trattamento automatizzato dei dati biometrici per il riconoscimento facciale a fini di sicurezza – spiega il Garante in una nota – realizzerebbe per come è progettato una forma di sorveglianza indiscriminata/di massa”.

Leggi anche: Intelligenza artificiale e identità digitale: la capacità di dimostrare davvero chi siamo

intelligenza-artificiale-e-sicurezza

Intelligenza artificiale e sicurezza: saremo in grado di controllarla?

Intelligenza artificiale (IA) e sicurezza: una nuova ricerca afferma che l’uomo rischia di non essere in grado di controllare le future “macchine intelligenti” che non smettono mai di imparare.

Proprio per questo alcuni scienziati hanno evidenziato i potenziali pericolo dello sviluppo di software autonomi.

In uno studio pubblicato sul Journal of Artificial Intelligence Research Portal, l’autore Manuel Cebrain ha dichiarato:

“Una macchina super intelligente che controlla il mondo suona come fantascienza”

Journal of Artificial Intelligence – Manuel Cebrain

Questo perchè è appurato che ci sono già macchine che svolgono determinati compiti importanti in modo indipendente senza che i programmatori capiscano appieno come l’hanno imparato […], una situazione, questa, che a un certo punto potrebbe diventare incontrollabile e pericolosa per l’umanità.

E’ giusto quindi analizzarne con cura rischi e opportunità dell’IA, prendendosi forse più tempo di quel che si è prospettato.

Intelligenza artificiale e sicurezza: l’uomo prima di tutto

E’ pure vero che i grandi progressi fatti e applicati in un serie di campi sono utili a verificarne anche i benefici oltre che i rischi: non dobbiamo dmenticare che la tecnologia IA rappresenta un enorme opportunità per il nostro futuro e quello del pianeta.

Pensiamo solo al problema dell’identità digitale, contro le frodi e il crimine infrmatico o agli ultimi progressi compiuti contro la disinformazione grazie ad una nuova capacità dell’IA di distinguere le notizie reali dai complottismi.

Attraverso dei calcoli teorici, un team di scienziati tra cui quelli del Center for Humans and Machines del Max Planck Institute for Human Development, mostra però che non sarebbe possibile controllare un’IA superintelligente. Il problema starebbe nella prevenzione del danno: lo studio è stato impostato su 2 diversi metodi per controllare il software: uno per isolare il software da internet e il secondo attraverso la programmazione di un algortimo che gli impedisca di danneggiare in qualsiasi circostanza. Questo per arrestarla se considerata pericolosa.

Il primo metodo ha impedito alla tecnologia di svolgere le sue funzioni di base, ma, cosa preoccupante, sembra che non ci sia un algoritmo in grado di garantire una prevenzione dal danno. Ovvero, il problema del contenimento è incomputabile, cioè nessun singolo algoritmo può trovare una soluzione per determinare se un’IA produrrebbe danni al mondo.

Se nel primo caso si è impedito alla tecnologia di svolgere le sue funzioni di base, nel secondo sembra che non ci sia un algoritmo in grado di garantire una prevenzione dal danno. Tale algoritmo non può essere costruito.

“Se si suddivide il problema in regole di base dall’informatica teorica, si scopre che un algoritmo che comanda un’IA di non distruggere il mondo potrebbe inavvertitamente fermare le proprie operazioni. Se ciò accadesse, non saprei se l’algoritmo di contenimento sta ancora analizzando la minaccia o se si è fermato a contenere l’IA dannosa. In effetti, questo rende inutilizzabile l’algoritmo di contenimento”

Iyad Rahwan, direttore del Center for Humans and Machines – We wouldn’t be able to control superintelligent machines

Intelligenza Artificiale quali rischi e quali opportunità?

Intelligenza artificiale: quali sono i rischi e le opportunità della tecnologia AI per l’uomo?

Intelligenza artificiale: quali sono i rischi e le opportunità- Andrea Biraghi
Intelligenza Artificiale pro e contro

Yuval Noah Harari, tra i più grandi pensatori contemporanei, ha affermato che facciamo parte di una delle ere migliori della storia dell’umanità, ma al tempo stesso anche una delle più turbolente. In questa sera ci sono tre sfide importanti che l’umanità deve affrontare:

  1. La possibilità di una guerra nucleare
  2. Il collasso ecologico
  3. La tecnologia destabilizzante, ovvero l’ascesa dell’Intelligenza artificiale

L’intelligenza artificiale e la bio-ingegneria secondo Harari, destabilizzeranno non solo l’economia e la società, ma perfino il corpo umano. Uno dei temi più rilevanti del suo pensiero rigarda il rapporto tra l’uomo e la tecnologia.

La tecnologia è quindi buona o catttiva? Lo stotico contemporaneo, in un’intervista a SkyTg24 risponde: “la tecnologia da sola non è né il problema, né la soluzione. Alla fine dei conti spetta sempre alla società decidere cosa fare con la tecnologia“. Ogni tecnologia si può usare infatti in modi molto diversi: treni, radio, televisione, automobili, elettricità possono essere usati per creare regimi fascisti, dittature comuniste e poi democrazie liberali.

Intelligenza Artificiale rischi e opportunità: il sondaggio pro e contro

Intelligenza artificiale: quali sono i rischi per l’uomo e quale è la famosa parte oscura di questa tecnologia? Cosa ne pensano le persone?

BVA DOXA, in collaborazione con WIN, ha svolto un sondaggio mondiale sulle nuove tecnologie, coinvolgendo 30.890 persone in 40 Paesi. I risultati potrebbero soprendervi!

Alla domanda: «Quanto sarebbe favorevole al fatto che in futuro l’Intelligenza Artificiale sostituisca le attività svolte dal personale medico?» solo il 7% si dichiara favorevole ad una totale sostituzione, con valori più alti in India (24%), Libano (22%) e Cina (17%). Ciò potrebbe denotare una minore fiducia nel sistema sanitario di quei Paesi e rappresentare un appello ad un maggiore uso delle tecnologie per la cura dei pazienti.

La maggior parte degli intervistati (53%) a livello mondiale auspica che l’Intelligenza Artificiale sia di supporto ai medici, ma non li sostituisca completamente.

Leggi il risultato del sondaggio sul sito di BVA doxa

Il lato oscuro dell’AI

Quale è il lato oscuro dell’intelligenza artificiale? Quali sono gli scenari futuri di una possibile applicazione di AI malaevola?

Forbes riassume in 4 punti i potenziali scenari futuri non proprio rosei, ovvero dalla manomissione della privacy alla cattiva gestione economica.

  1. Un piccolo numero di giganti della tecnoloia potrebbe monopolizzare l’economia dell’AI
  2. Gli algoritmi potrebbero manipolare i modelli e le transazioni di acquisto o vendita.
  3. L’intelligenza artificiale potrebbe contribuire ad allargare il divario tra leader e ritardatari, tra ricchi e poveri.
  4. Micro-bit di dati personali potrebbero contribuire a creare deepfakes.

Come riporta Focus.it lo scandalo Cambridge Analytica, scoppiato a marzo 2018, ha invece evidenziato l’effettiva capacità dei social media di pilotare la coscienza politica delle persone dando maggiore risalto a certe notizie e a certe fonti di informazione a discapito di altre.

L’AI è una enorme opportunità per il nostro futuro e quello del pianeta

Cyber intelligence: prevenire le minacce

Cyber-intelligence

La Cyber Intelligence, che ha un ruolo  importante nella difesa nazionale, può in realtà essere definita come il monitoraggio, l’analisi e il contrasto delle minacce alla sicurezza digitale.

Continua a leggere su AndreaBiraghiBlog.it

L’intelligence, in una miscela di spionaggio fisico e di moderna tecnologia dell’informazione, diventa sempre più indispensabile per la sicurezza informatica perchè in grado di anticipare situazioni ed attacchi; la Cyber Intelligence, considerata soprattutto in ambito militare, si sviluppa su tre livelli: strategico, operativo e tattico.

Photo by Markus Spiske on Unsplash

Con l’introduzione di sistemi di intelligenza artificiale per implementare le misure in materia di sicurezza informatica, le capacità di poter prevenire gli attacchi sono aumentate sino ad arrivare ad individuare l’85% degli attacchi e a ridurre fino a ad un quinto il numero di falsi positivi.

Leggi di più su AgendaDigitale.eu

L’intelligence sulle minacce è un investimento importante per la posizione di sicurezza di un’organizzazione in quanto offre un vantaggio e un anticipo sugli “avversari”, identificando in anticipo gli attacchi informatici.

Ma cosa pensare quando la Cyber Security per prevenire le minacce viene affiancata ed integrata all’Intelligenza artificiale? Sarebbe interessante ribaltare la domanda, ovvero, l’intelligenza artificiale riuscirà a superare i limiti della sicurezza informatica?

Gli algoritmi possono rappresentare un pericolo?

 

Andrea Biraghi Cyber Security reti neurali machine learning

Reti neurali artificiali nella sicurezza della rete

Reti neurali artificiali: l’intelligenza artificiale, sempre più utilizzata per prevedere, identificare ed eliminare minacce informatiche, sta per rivoluzionare la CyberSecurity?

Andrea Biraghi Cyber Security reti neurali machine learning

Dal punto di vista dell’utilizzo sul campo, l’introduzione di strumenti di Machine Learning ha permesso oggi di gestire problematiche che richiedono analisi estremamente lunghe e complesse. L’aspettativa per i vantaggi che l’applicazione dell’Intelligenza Artificiale potrà portare alla CyberSecurity è attualmente molto alta perchè le nuove risorse di aiuto potrebbero derivare direttamente dall’AI. Attualmente l’Ai viene utilizzata per prevedere le minacce, identificare le vulnerabiltà e arrestare i Cyber Attacchi più velocemente.

La velocità nel 2020 è diventata infatti indispensabile e per un essere umano analizzare grandi volumi di dati è pressochè impossibile, questo è il caso di un gran numero di data log relativi agli attacchi informatici.

In che modo quindi l’Intelligenza Artificiale potrebbe rivoluzionare la sicurezza informatica del futuro?

Leggi anche Cyber Security e AI le sfide del 2020

Agenda Digitale spiega quali sono i progressi fatti nel campo analizzando un recente rapporto di Forrester Research: tra questi la biometria e l’elelaborazione del linguaggio neurale. Se la biometria può contribuire a ridurre i tassi di frode e migliorare il livello di sicurezza contro gli attacchi cche utilizzano credenziali rubate, la tecnologia legata all’elaborazione del linguaggio naturale (NLP) è in grado di leggere e comprendere i testi scritti dall’uomo. IBM Watson per la Cybersecurity, ad esempio, comprende il testo scritto e quindi può essere utilizzato ai fini di un’analisi aggiuntiva.

Non solo la Forrester si è cimentata in questa ricerca, se ne è parlato anche alla tavola rotonda durante evento Hot Topics on Networking and Cybersecurity organizzato da NetEvents in Portogallo: ossia quali possano essere gli effettivi utilizzi dell’intelligenza artificiale per potenziare le capacità predittive dei sistemi e quindi difendere dagli attacchi in modo ottimale. Roark Pollock, SVP Marketing di Ziften Technologies (soluzioni cloud di protezione degli endpoint) ha affermato che oggi non si possa ancora concretamente parlare di vera e propria AI applicata alla cybersecurity, ma al contempo NLP e machine learning hanno compiuto importanti progressi.

E’ comunque un dato di fatto che lo sviluppo e l’applicazione dell’Intelligenza Artificiale sta progredendo ovunque e naturalmente il settore della sicurezza delle informazioni e quello della Cyber Security sono inclusi. Le tecnologie di ML e AI sono state studiate per la loro applicazione nell’ambito della Cyber Security in TIM, al tempo della costruzione della piattaforma di Big Data di Security.

Le reti neurali artificiali oggi svologono un ruolo sempre più importante nella gestione della rete: tecnologia che resa più flessibile e sciura potrebbe sempre più migliorare il rilevamento di falsi allarmi. Allo stato di fatto la quantità di ricerca condotta sull’applicazione di reti neurali per rilevare le intrusioni sono limitate, anche se diversi studi hanno rilevato che l’utilizzo di reti neurali artificiali può identificare un attacco in situazioni ove le regole non sono note e con maggior coerenza. Le sfide future sono l’affidabilità e la precisione nell’identificazione delle intrusioni in rete non sicure.

Le reti neurali di Google Brain

Le reti neurali di Google Brain hanno imparato da sole a nascondere i segreti, cifrandoli: il team di ricerca di Google, noto come Google Brain, ha dimostrato che una rete neurale artificiale può apprendere autonomamente a nascondere il contenuto dei propri messaggi durante le sue interazioni comportamentali. Basato sulla comunicazione di tre diverse reti neurali, soprannominate Alice, Bob ed Eve, appositamente istruite a comunicare fra di loro, il progetto ha dato risultati strabilianti.

Leggi l’articolo su CyberSecurity Startup Italia

Andrea Biraghi


Leonardo Finmeccanica: resilienza cyber europea

Andrea Biraghi Leonardo Finmeccanica
Resilienza Cyber in Italia e Europa

Leonardo Finmeccanica Cyber Security: aumentare e migliorare la capacità di resilienza cyber dell’Europa. Questa è l’intenzione che Alessandro Profumo ha espresso durante il Cybertech Europe 2019 a Roma. 

Per raggiungere davvero l’indipendenza digitale l’Europa infatti deve fare ancora grandi passi, tra cui il rafforzamento della cooperazione tra industria, istituzioni e Paesi alleati. 

Ma dove puntare l’attenzione? Leonardo guarda anche alle piattaforme: modulabili, facilmente adattabili e velocemente aggiornabili per affrontare le nuove minacce e utili anche nella prevenzione. L’attenzione è puntata su 3 sistemi complessi: il Decision Support System (DSS), il Cyber Range & Training e il Critical Infrastructure Security.

Ma di cosa si tratta e come vengono utilizzati nella Cyber Security?

1 — Il Decision Support System (DSS) di Leonardo Finmeccanica, che misura in modo dinamico l’impatto dei rischi cibernetici, si basa sui sistemi di Intelligenza Artificiale, Big Data, Analytics e IoT. Correlando dati e fonti informative (come threat intelligence, risk assessment, SIEM ed asset management), l’intento è quello di riuscire a misurare una minaccia alla luce delle esperienze pregresse. Il risultato è una migliore capacità analitica e minori tempi di comprensione con capacità di risposte veloci, elevate ed efficienti.

2 —Il  Cyber Range & Training, un ambiente integrato per l’addestramento Cyber, permette invece, facendo leva su tecnologie di simulazione e virtualizzazione, di generare scenari complessi di Cyber Warfare. Attraverso la costruzione di esperienze cibernetiche realistiche e immersive, gli studenti possono sviluppare le loro capacità di risposta ad un attacco, interpretandone gli effetti e imparare a contenerlo in modo efficace.

3 — Critical Infrastructure Security: anche se in Europa manca una chiara definzione delle infrastrutture critiche, tutti concordano di innalzare il loro livello di protezione e difesa. L’obiettivo è la loro resilienza informatica se non altro per garantire la continuità dei servizi. Ma riguardo a questo punto fare chiarezza diventa indispensabile. La direttiva NIS è ancora in fase di completamento, molte infrastrutture critiche sono vecchie e gli gli Operatori di Servizi Essenziali (OSE) sono, da un punto di vista pratico e tecnico, interconnessi come molte infrastrutture critiche, interconnesse oltre ai confini nazionali.

Leonardo Finmeccanica: infrastrutture critiche e intelligenza artificiale

Leonardo Finmeccanica punta l’attenzione sulla prevenzione degli attacchi informatici nei servizi pubblici essenziali. Ma quando gli attacchi raggiungono potenze di calcolo inafferrabili per il cervello umano l’Intelligenza Artificiale (AI) rappersenta un alleato indispensabile. 

Non solo, si parla di Augmented Intelligence, una concettualizzazione alternativa alla semplice AI, che si concentra sul ruolo assistivo, sottolineando il fatto che la tecnologia cognitiva è progettata per migliorare l’intelligenza umana anziché sostituirla. L’Augmented Intelligence diventa quindi uno strumento in grado di potenziare le capacità umane: un concetto importante basato sul fatto di non poter mai perdere il controllo sulla tecnologia. 

Un progetto essere estremamente utile per formare personale sempre più esperto e all’avanguardia, che deve migliorare lacapacità di analisi e di veloce risposta in caso di crisi.

Alla cyber security, aumentata da Artificial Intelligence e Analytics, Leonardo ha quindi dedicato una linea ad hoc, rivolta espressamente a Governi, Infrastrutture critiche nazionali e Industrie.

Continua a leggere su Corriere comunicazioni — Uomo+AI: istituzioni e infrastrutture critiche più sicure grazie all’augmented intelligence.

Augmented Intelligence: George Yang | TEDxUPDiliman

Cyber Security 2019: la sicurezza informatica del futuro

Cyber Security 2019: il cyber crime è in aumento e ruba sempre più dati e risorse. Il costo medio di un attacco ad una piccola o media impresa (PMI) si aggira sui 35mila euro ed oggi, allo stato delle competenze in Italia, ci vogliono in media 200 giorni per capire che si è stati presi di mira. Nel 2017 i danni ammontano a 10 mld € in Italia e il 2018 è stato un anno ancora più impegnativo. Il Cyber Risk è al secondo posto nell’impatto dei rischi delle PMI, a prescindere dalla dimensione o dall’ambito di attività. L’attaco ai dati sensibili e la successiva perdita ha conseguenze economiche, legali e giudiziarie e può danneggiare la reputazione delle aziende. Tra le perdite di informazioni, la perdita delle risorse, i ransomware, le truffe quali sono tra le fonti più significative della criminalità informatica?

Intelligenza Artificiale

Tra le fonti più significative del cybercrime vi sono: la posta elettronica, truffe sugli investimenti, furti di identità, violazione dei dati personali, frodi immobiliari e con carte di credito, ma la lista conta ancora numerosi elementi.

Nel 2019 ci si prepara ad attacchi sempre più duri: gli hacker costruiscono strumenti sempre più veloci e più intelligenti, che aggirino i sistemi di sicurezza e le normative, che le organizzazioni e le aziende hanno messo in atto. Ma come si stanno preparando le divisioni Cyber?

Cyber Security 2019: i nuovi trend a cui si si prepara la sicurezza

  • Le password a più fattori

Un’unica password non basta più, per combattere il rischio informatico si sono aggiunte e si stanno aggiungendo persino impronte digitali o scansioni dell’orecchio. L’utilizzo di password a più fattori sarà per la Cyber Security del 2019 una nuova strategia che ridurrà il rischio di errori umani e negligenze.

  • Privacy dei dati e GDPR

L’Europa ha spinto le imprese ad adattarsi al regolamento generale sulla protezione dei dati (GDPR), anche se ancora non ci sarà, nel 2019, un impatto significativo. Il regolamento però dovrebbe dare impulso ai nuovi mercati ma soprattutto dovrebbe garantire un salto di qualità in tema di sicurezza. Intanto si sta sviluppando una strategia europea sull’impiego delle tecnologie più avanzate come l’intelligenza artificiale. 

Curiosità: a distanza di 1 anno dall’avvio del GDPR le sanzioni commutate in Europa arrivavano a 56 milioni di euro (60 provvedimenti circa), con le 2 multe proposte a luglio dell’autorità inglese per la data protection (ICO UK), pari a 204,6 milioni per la British Airways e 110 milioni alla catena alberghiera Marriott (Fonte: TheInnovationGroup)

L’ascesa del CryptoJacking

Il cryptojacking è una nuova tecnica malevola degli hacker che consente di minare le criptovalute sfruttando la potenza di calcolo dei computer o dei dispositivi mobile. Quando il cyber criminale attua il programma di mining di criptovalute (spesso in JavaScript), il sistema rallenta la potenza di elaborazione. Nel caso migliore si ha una perdita produttività, ma nel caso peggiore si potrebbero innescare gravi blackout: questo significherebbe danni enormi ad esempio se l’attacco avvenisse in una struttura ospedaliera.

Attacchi AI

L’aumento dell’intelligenza artificiale (AI) e quello dell’apprendimento automatico (ML) viene utilizzato anche dai criminali per i loro attacchi. Gli attacchi basati sulla AI e sul machine learning sono al momento utilizzati per le analisi dei dati e la creazione di contenuti falsi (in modo molto più sofisticato e avanzato della nostra capacità di rilevarli).

Internet of Things (IoT)

Nel 2019 i problemi di sicurezza legati allo IoT potrebbero emergere ed finalmente essere affrontati: con una maggior connettività e un maggior numero di sistemi connessi (come ad esempio veicoli, dispositivi, apparecchiature, elettronica, software), la sicurezza pubblica non dovrebbe essere presa alla leggera.

Cyber Security 2019 – A View from the Front Lines of Cybersecurity