LA MIGLIORE STRATEGIA PER OTTENERE RISULTATI REALI

Le auto a guida autonoma possono essere hackerate troppo facilmente. Lo dice un rapporto dellAgenzia Europea

Le auto a guida autonoma possono essere hackerate troppo facilmente. Lo dice un rapporto dell’Agenzia Europea

Le auto a guida autonoma, con la loro capacità di rilevare l’ambiente e muoversi in sicurezza senza l’intervento umano, sono il sogno proibito di molti guidatori e di tutte le case automobilistiche. Ma in agguato dietro al sogno, potrebbe esserci un brusco risveglio.

L’Agenzia dell’Unione europea per la sicurezza informatica (ENISA) ha infatti rivelato in un rapporto che i veicoli autonomi sono altamente vulnerabili ad una vasta gamma di attacchi informatici. Alcuni di questi potrebbero essere molto pericolosi, se non addirittura mortali, per passeggeri e pedoni.

Uno degli scenari peggiori paventati dall’agenzia è relativa ad un attacco che renda l’IA “cieca”. Danneggiando la parte di software che si occupa del riconoscimento delle immagini, l’IA potrebbe non riconoscere più i pedoni. Il risultato è che le auto potrebbero investire i pedoni che passeggiano o attraversano sulle strisce pedonali.

A preoccupare fortemente l’ENISA c’è poi la scarsa, e in alcuni casi addirittura assente, competenza in termini di sicurezza informatica degli ingegneri deputati al lavoro sulle tecnologie di guida autonoma.

C’è la necessità di creare un’intera filiera dell’auto basata sulla sicurezza

Il pericolo è ampliato anche dal fatto che non sempre le tecnologie di guida autonoma vengono sviluppate in proprio, ma spesso fanno capo a progetti o componenti provenienti da terze parti. Se per un grande produttore è infatti relativamente facile occuparsi della sicurezza per ciò che produce in casa, è molto più difficile ottenere lo stesso risultato affidandosi alle terze parti.

Secondo l’ENISA è dunque necessario che i produttori si concentrino su questo tema, adottando tutte le misure necessarie per mitigare i rischi relativi alla sicurezza lungo l’intera filiera.

Già nel 2017 i ricercatori hanno “mascherato” uno STOP in un limite di velocità

D’altronde i pericoli relativi alla guida autonoma non sono semplici scenari ipotizzati dalle agenzie di sicurezza informatica, ma si sono già palesati anche nella realtà: nel 2017 alcuni ricercatori, in uno scenario controllato, avevano utilizzato un particolare spray per “camuffare” un segnale di STOP in un segnale di limite di velocità. Il risultato è che l’auto ha rallentato ma non si è fermata. Se questo fosse successo su una strada aperta al pubblico, si sarebbe rischiato un incidente molto pericoloso.

Nel 2019, invece, dei ricercatori di Tencent hanno dimostrato come, tramite dei particolari adesivi, si poteva indurre una Tesla con Autopilot ad un repentino cambio di corsia, senza curarsi di eventuali mezzi in arrivo. Sempre utilizzando dei pezzi di nastro, sono riusciti poi a far accelerare arbitrariamente l’auto dalle 35mph (poco più di 50 chilometri orari) alle 85mph (circa 135 chilometri orari)

Fonte: https://www.dday.it/redazione/38966/le-auto-a-guida-autonoma-possono-essere-hackerate-troppo-facilmente-lo-dice-un-rapporto-dellagenzia-europea