A medida que los ciberataques se vuelven más sofisticados y complejos, las empresas de tecnología recurren a la inteligencia artificial para ayudar a detectar y prevenir ataques en tiempo real. Pero algunos expertos en ciberseguridad se muestran escépticos acerca de sus capacidades.
El martes, el gigante mundial del software Microsoft anunció el lanzamiento de Security Copilot, una nueva herramienta que utiliza IA generativa. La IA generativa es un tipo de inteligencia artificial que utiliza grandes conjuntos de datos y modelos de lenguaje para generar patrones y contenido como imágenes, texto y video. ChatGPT es el ejemplo más conocido.
Copiloto de Microsoft 365un motor de inteligencia artificial creado para potenciar un conjunto de aplicaciones de Office, se lanzó a principios de este mes. Copiloto de seguridadla primera herramienta especializada de Copilot, permitirá a los administradores de seguridad y TI analizar rápidamente grandes cantidades de datos y detectar signos de una ciberamenaza.
“En un mundo donde hay 1287 ataques de contraseña por segundo, las herramientas e infraestructura fragmentadas no han sido suficientes para detener a los atacantes”, dijo Microsoft en un comunicado. presione soltar. “Y aunque los ataques han aumentado un 67 % en los últimos cinco años, la industria de la seguridad no ha podido contratar suficientes profesionales de riesgo cibernético para seguir el ritmo”.
Al igual que otras implementaciones generativas de IA, Security Copilot se activa mediante una consulta o solicitud de un usuario y responde utilizando las “capacidades más recientes del modelo de lenguaje grande”, y Microsoft dice que su herramienta es “única para un caso de uso de seguridad”.
“Nuestro modelo cibernético agrega un sistema de aprendizaje para crear y afinar nuevas habilidades [to] ayudar a detectar lo que otros enfoques podrían pasar por alto y aumentar el trabajo de un analista”, explicó Microsoft. “En un incidente típico, este impulso se traduce en ganancias en la calidad de detección, velocidad de respuesta y capacidad para fortalecer la postura de seguridad”.
Pero Microsoft mismo, así como expertos externos en seguridad informática, dijeron que la herramienta tardará un tiempo en ponerse al día.
“La IA aún no está lo suficientemente avanzada como para detectar fallas en la lógica comercial o los contratos inteligentes. Esto se debe a que la IA se basa en datos de entrenamiento, que utiliza para aprender y adaptarse”, Steve Walbroehl, cofundador y director de tecnología de la empresa de seguridad blockchain. Halborndijo descifrar en una entrevista. “Obtener suficientes datos de entrenamiento puede ser difícil, y es posible que la IA no pueda reemplazar completamente la mente humana en la identificación de vulnerabilidades de seguridad”.
Microsoft pide paciencia: a medida que Copilot aprende de las interacciones de los usuarios, la empresa ajustará sus respuestas para crear respuestas más coherentes, relevantes y valiosas.
“Security Copilot no siempre hace todo bien. El contenido generado por IA puede contener errores”, la compañía dicho. “Pero Security Copilot es un sistema de aprendizaje de circuito cerrado, lo que significa que está aprendiendo continuamente de los usuarios y permitiéndoles brindar comentarios explícitos con la función de comentarios integrada directamente en la herramienta”.