Un grupo de científicos logró encender y apagar los interruptores de la luz, realizar compras en línea e incluso remotamente encender el motor de un coche conectado a este tipo de dispositivos, según recoge rt y comparte Paula Dumas para Periodista Digital.
Un grupo de científicos de la Universidad de Electrocomunicación (Japón) y la Universidad de Míchigan (EE.UU.) lograron ‘hackear’ los asistentes virtuales Alexa de Amazon, Siri de Apple y Google Home a cientos de metros de distancia, al apuntarles con punteros láser e incluso linternas a los micrófonos de los dispositivos, según un estudio, publicado este lunes.
Los investigadores revelaron que en un caso consiguieron abrir la puerta de un garaje dirigiendo un rayo láser a un asistente de voz conectado. En otro, subieron unos 42 metros hasta la cima de un campanario de la Universidad de Míchigan y controlaron con éxito un dispositivo Google Home, que se encontraba en el cuarto piso de un edificio de oficinas, a unos 70 metros de distancia.
En otras palabras, los científicos pudieron ‘hackear’ cualquier sistema inteligente digital conectado a los asistentes controlados por voz. Lograron realizar compras en línea, encender y apagar los interruptores de la luz, e incluso encender remotamente el motor de un coche conectado a uno de estos dispositivos.
Esta vulnerabilidad se debe a que los micrófonos de los asistentes virtuales respondían a la luz como si fuera sonido. Dentro de cada micrófono hay una pequeña placa llamada ‘diafragma’, que se mueve cuando le llega el sonido. Ese movimiento se puede replicar enfocando un láser o una linterna al diafragma, que lo convierte en señales eléctricas y el sistema responde tal como respondería a un sonido.
¿Cómo protegerse?
Los científicos opinan que los micrófonos de estos asistentes virtuales deben ser rediseñados por completo para solucionar la vulnerabilidad. De hecho ya notificaron a Tesla, Ford, Amazon, Apple y Google sobre su hallazgo. Las compañías, por su parte, señalaron que están estudiando las conclusiones del estudio.
Mientras tanto, uno de los autores del estudio, Daniel Genkin, para protegerse, propone dejar el asistente de voz «fuera de la línea de visión desde fuera de su hogar» y no darle acceso a nada «a lo que no desee que acceda otra persona», según lo cita el periódico The New York Times.