Noticias

Un láser permite ‘hackear’ el asistente de voz y los altavoces inteligentes

Es posible manipular altavoces inteligentes mediante el uso de láseres, según han demostrado investigadores de ciberseguridad de la Universidad de Michigan. El estudio revela que apuntar con un láser de alta potencia al micrófono de un altavoz inteligente puede alterar su configuración, permitiendo a los ciberdelincuentes abrir puertas de garajes o coches. Los altavoces inteligentes tienen un micrófono cuya membrana vibra cuando se emiten sonidos. El láser calienta la membrana, generando vibraciones que imitan la voz del propietario del altavoz. Los ciberdelincuentes pueden modular esta señal acústica para reproducir la voz exacta del propietario y dar comandos de voz.

El hackeo se puede realizar con láseres de luz verde o azul, y también con láseres infrarrojos, que son invisibles pero más peligrosos. El estudio destaca que este tipo de vulnerabilidad es peligroso tanto por las acciones que los ciberdelincuentes pueden realizar como por la falta de técnicas específicas de prevención y protección por parte de los usuarios. Colocar los dispositivos fuera del alcance visible desde el exterior de la vivienda es la única medida que los usuarios pueden tomar para evitar la manipulación a distancia por este método. Además, se sugiere estar atento a las actualizaciones de software para parchear esta vulnerabilidad.

Tanto Google como Amazon, empresas que producen altavoces inteligentes, están siguiendo de cerca esta investigación. Google afirma que la protección de sus usuarios es primordial y que siempre están buscando formas de mejorar la seguridad de sus dispositivos. Amazon señala que la confianza del cliente es su máxima prioridad y que están analizando la investigación y colaborando con los autores para comprender mejor los detalles de su trabajo.

Esta vulnerabilidad se suma a otros problemas de seguridad detectados previamente en altavoces inteligentes, como la posibilidad de espiar conversaciones de usuarios y extraer información personal. Los expertos sugieren que, en el futuro, los fabricantes podrían incorporar reconocimiento por huella vocal o autenticación selectiva de órdenes para prevenir este tipo de ataques, aunque estas medidas podrían afectar la agilidad y facilidad de uso inherente a estos dispositivos.

También te podría interesar