Los ciberataques evolucionan constantemente, adaptándose a las nuevas tecnologías y formas de interacción en línea. Un reciente estudio realizado por un grupo de investigadores en el Reino Unido ha arrojado luz sobre una amenaza emergente y sorprendente: el uso de la inteligencia artificial (IA) para deducir contraseñas a partir del sonido generado al teclear durante una videoconferencia en plataformas como Zoom.
Este innovador estudio, llevado a cabo por especialistas de la Universidad de Surrey, la Universidad de Durham y la Universidad Royal Holloway de Londres, ha demostrado la capacidad de la IA para analizar los sonidos producidos por las teclas al ser presionadas en un teclado durante una videoconferencia y deducir con alta precisión las pulsaciones correspondientes. Los resultados, con tasas de precisión del 93% en el caso de Zoom, resaltan el potencial de los ciberataques basados en el sonido y plantean desafíos significativos para la seguridad cibernética.
El experimento involucró la grabación de los sonidos generados por las teclas de un MacBook Pro mientras eran presionadas en varias ocasiones, variando la forma en que se presionaban. Estos sonidos fueron capturados tanto a través de una llamada en Zoom como con un smartphone ubicado cerca del teclado. Luego, se desarrolló un sistema de aprendizaje automático para reconocer las características acústicas únicas asociadas a cada tecla, logrando tasas de precisión impresionantes.
Si bien la idea de que el sonido pueda revelar las pulsaciones de las teclas no es nueva, este estudio se destaca por su nivel de precisión, superando a lectores similares en investigaciones previas. La capacidad de la IA para llevar a cabo ataques acústicos de esta naturaleza destaca la importancia de una mayor conciencia pública sobre los riesgos de seguridad cibernética asociados con la proliferación de dispositivos equipados con micrófonos en nuestros hogares y lugares de trabajo.
Los investigadores enfatizan que, aunque este estudio se centró en una prueba conceptual y no se utilizó para descifrar contraseñas en situaciones reales, subraya la urgencia de abordar los riesgos potenciales y discutir la regulación de la IA en el ámbito de la seguridad cibernética. Es crucial educar al público sobre estas amenazas emergentes y promover medidas proactivas para mitigar los riesgos.
En respuesta a esta nueva forma de ciberataque, los investigadores proponen una serie de estrategias para mitigar los riesgos. Entre ellas se incluye la adopción de contraseñas biométricas y sistemas de autenticación en dos pasos, que agregan un nivel adicional de seguridad al proceso de inicio de sesión. También sugieren el uso estratégico de la tecla Mayúsculas para crear combinaciones más complejas de caracteres, ya que se ha demostrado que la IA tiene dificultades para identificar cuándo se utiliza esta tecla.
Además, se ha planteado otra advertencia importante: la necesidad de evitar escribir información sensible, como contraseñas, frente a las cámaras durante videoconferencias. Incluso los sutiles movimientos del hombro y la muñeca pueden proporcionar pistas visuales que podrían ser explotadas por posibles atacantes.
