Passa ai contenuti principali

Cybersecurity e fattore umano


Anche se breve la storia della sicurezza informatica ha già le sue tappe e le sue svolte. Fino a qualche anno fa proponevamo sistemi che si fondavano sulla sicurezza perimetrale, basati essenzialmente su firewall e antivirus. Queste erano anche le best practices imposte dalle misure minime di sicurezza del Codice della Privacy (D.Lgs. 196/2003) che infatti era una legge che nasceva agli albori degli anni 2000 ereditando la filosofia mainstream degli anni novanta basata essenzialmente sul "fortino". Oggi l'efficacia di questo sistema difensivo non è più quella di un tempo perché questi sistemi non tengono conto della più grossa vulnerabilità dei moderni sistemi informatici: il fattore umano.

Ma ripercorriamo brevemente la storia delle principali minacce cyber nel corso degli ultimi 40 anni:
  • anni 70, arrivano i primi hackers chiamati "phreakers" il cui scopo era quello di manomettere gli apparati telefonici per fare chiamate gratis
  • anni 80, arriva il primo virus Brain (1986) che infettava il boot sector dei Floppy Disk ed il primo antivirus scritto dal tedesco Bernd Fix (1987)
  • anni 90, il primo phishing colpisce AOL per carpire le credenziali degli utenti, primo attacco DDos, gli auto dialer colpiscono modem e reti ISDN
  • anni 2000, adware, truffe pubblicitarie, click fraud
  • 2010, minacce sempre più sofisticate, automatizzate e diffuse
  • Oggi ... salto di livello, il cybercryme diventa un'industria che investe milioni di dollari, i suoi proventi sono paragonabili a quelli di altre categorie di reati come il narcotraffico. In Italia sono colpiti migliaia di enti pubblici, aziende di tutti i tipi, alcune delle quali strategiche per il paese  
Sostanzialmente cosa sta accadendo? Se fino ad oggi la concezione era quella di mettere la rete locale all'interno di un fortino protetto nel quale gli utenti potevano fare un po' quello che volevano. Questo tipo di impostazione basata sulla difesa perimetrale spesso si è rivelata non adeguata, obsoleta, in ogni caso non sufficiente. Chi si è occupato di sicurezza informatica o ha svolto il compito di amministratore di sistema di una rete informatica negli ultimi due anni, certamente si sarà reso conto di come spesso le penetrazioni sono state l'effetto di errate valutazioni del rischio cyber da parte degli utenti del sistema. Il lato umano è diventato quindi l'anello debole di tutto il sistema a cui associare un alto fattore di rischio. Ma come fare per fronteggiarlo? Sicuramente la formazione è uno dei pilastri fondamentali richiamato anche dal nuovo regolamento europeo 679/2016 nei compiti del Data Protection Officer (Articolo 39, comma b) ove si cita espressamente la sensibilizzazione e la formazione del personale che partecipa ai trattamenti dei dati.

Nel momento in cui il cybercrime ha scelto di agire sul lato umano sono venute alla luce tutta una serie di cattive abitudini legate al corretto utilizzo degli strumenti informatici all'interno di una rete aziendale. Tra cui per esempio la scelta di password troppo semplici, troppo corte, sempre le stesse per accedere ai social, alla raccolta a punti del supermercato, al sistema informatico aziendale.

Siamo quindi di fronte alla necessità di un cambiamento epocale di strategia. In questo processo ci possono tornare utili tecniche di intelligenza artificiale, già oggi utilizziamo algoritmi di machine learning in molti altri ambiti tecnologici quali:
  • motori di ricerca
  • auto a guida autonoma
  • riconoscimento vocale
  • pubblicità contestuale
  • filtri anti-spam
  • riconoscimento della scrittura
  • riconoscimento facciale
Dobbiamo quindi passare ad adottare tecniche di difesa proattiva di cui i sistemi di profilazione degli utenti possono essere un passaggio decisivo.



Secondo un recente studio eseguito da Forrester Research pubblicato su Forbes, gli investimenti in intelligenza artificiale (AI) nel 2017 avranno un incremento del 300% rispetto al 2016. Tra quest, i sistemi di sicurezza contestuale si basano su algoritmi di intelligenza artificiale e saranno il futuro della sicurezza informatica, hanno molti aspetti che li differenziano dagli altri sistemi di strong authentication.

Sostanzialmente gli algoritmi implementati tracciano un profilo comportamentale legato alle credenziali di accesso dell'utente che coinvolgono tutta una serie di parametri. Anche se non ce ne accorgiamo ognuno di noi ha un suo modo di utilizzare il computer, una tempistica nel fare l'accesso, una serie di azioni fatte sulle applicazioni e sui dati, orari di accesso che possono essere registrati ed inventariati dalla macchina che crea un profilo personale per ogni login name. A questo punto ogni attività classificabile come anomala per quel determinato utente può essere bloccata dal sistema e segnalata all'amministratore di sistema per la verifica, se dal controllo risulta che l'azione è regolare allora può essere autorizzata con l'immissione di un codice di controllo.






Commenti

Post popolari in questo blog

Whistleblower: storia e quadro giuridico di riferimento

Disegno tutorial di Edward Snowden È uscita in queste settimane l'autobiografia di Chelsea Manning dal titolo README.txt , il nome che l'analista junior dell'intelligence dell'esercito americano aveva dato al file di testo che accompagnava il materiale di quello che diventerà il più grande leak nella storia degli Stati Uniti. Per chi non conoscesse i suo caso giudiziario, Chelsea Manning è stata la più grande whistleblower della storia, durante il suo servizio in Iraq rilasciò attraverso la piattaforma  WikiLeaks circa 750.000 documenti classificati contribuendo ad influenzare in maniera determinante la percezione dell'opinione pubblica sull'andamento della guerra in Iraq. Per questo atto Chelsea fu condannata a 35 anni di reclusione essendo stata ritenuta colpevole di reati connessi alla diffusione di notizie coperte da segreto e al possesso di software non autorizzati, pena poi commutata dal presidente Obama alla fine del suo mandato. In quattrocento pagine

Cancellazione sicura: la sanificazione dei dati informatici

La sanificazione è un punto importante del ciclo di vita del dato: quando il dato giunge al termine del suo ciclo vitale ovvero quando è diventato inutile, obsoleto o ridondante è essenziale poterlo dismettere in modo sicuro facendo in modo che non sia possibile per nessuno poterlo ricostruire in alcun modo. Formattare i dischi da smaltire non basta, è come buttare nel cassonetto un libro strappando solo la pagina dell'indice, il primo che passa potrebbe recuperarlo e leggerlo. I vostri dati sono tutti al loro posto pronti per essere ripristinati. Secondo un'indagine condotta da uno dei maggiori produttori mondiali di HD sulla vendita online di supporti di memorizzazione usati è stato possibile recuperare integralmente il contenuto di questi hard disk ben 7 volte su 10. Molti dati personali vengono recuperati da supporti digitali smaltiti in modo superficiale. In cosa consiste la sanificazione dei dati? Si definisce sanificazione dei dati quel processo attraverso il qua

Chiamate vocali a prova di intercettazione con Signal

Di tanto in tanto mi capita di scorrere la lista di coloro tra  miei contatti che sono iscritti a Signal, l'applicazione voip gratuita e open source basata sulla crittografia end-to-end lanciata nel 2014 dall'organizzazione no profit Open Whisper Systems, e mi dolgo davvero di quanto pochi essi siano soprattutto se paragonati con quelli iscritti alla più popolare app di messagistica di Meta, ovvero la maggior parte di loro. Anarchico, hacker, crittografo, maestro d'ascia, skipper, Moxie Marlinspike, il fondatore del servizio Signal, è convinto che il progresso tecnologico debba andare di pari passo con la sicurezza degli utenti. Così intorno alla sua "creatura" è nata una community di persone che mettono la privacy al primo posto. Tra questi anche Edward Snowden il whistleblower ex consulente dell'NSA, l'agenzia per la sicurezza nazionale degli Stati Uniti, che nella primavera del 2013 divulgò una serie di informazioni classificate sui piani di sorveglian