El contenido en redes sociales puede ser una manera de usar la IA para efectuar ataques
Muchos ciberdelincuentes han empezado a usar la inteligencia artificial para crear ataques, robar información y estafar a usuarios y empresas.
Así las cosas, en los ataques hechos con ingeniería social se aprovecha el eslabón más débil: el factor humano, porque la IA se combina con el aprendizaje automático y la información en redes sociales para efectuar las ofensivas.
“Para defenderse de estos métodos es necesaria una sólida gestión de la capacitación interna, y de la identidad de los bots, basada en herramientas de alta calidad asistidas por IA, que permitan detectar y combatir los ataques de forma proactiva. Es muy importante en los tiempos actuales realizar simulaciones de nuevos servicios para así adelantarse a los posibles ataques”, aseguró el experto.
Crear una defensa a los ataques con inteligencia artificial
El ingenio de la IA ha permitido a los atacantes generar imágenes, audio, videos y otros archivos falsos, utilizando información de redes sociales que es pública. Lo que pone un nuevo nivel de riesgo al panorama de seguridad informática, que ha tenido cada vez más retos en los últimos años.
Para comenzar con un plan de defensa, en las empresas es necesaria la instalación de políticas de protección que les den herramientas a los trabajadores para evitar caer en estafas y ser el foco de ingreso de los ataques. Esta mentalidad preventiva evita sorpresas y protege la reputación de las organizaciones y sus datos.
“Los ejecutivos de alta dirección y jefes de las unidades de negocio deben comprometerse proactivamente con la seguridad empresarial, no solo en términos de inversión, sino también de implementación de mejores estrategias y procesos”, destaca Croci.
Si bien la IA es una herramienta de beneficio para los ciberdelincuentes, también lo es para los esquemas de seguridad y con “una adecuada alimentación de datos y aprendizaje continuo, la IA puede detectar anomalías y contrarrestar con acciones correctivas”.
Para esto, las empresas deben tener claros los marcos legales y regulatorios en los países en los que operan y entrenar sus sistemas de inteligencia artificial para cumplir con los estándares operativos y de seguridad.
Según Croci, en lo que va del 2023 la privacidad de los datos ha sido la principal preocupación en las empresas. Lo que da aún más importancia al hecho de tener un esquema de seguridad y un equipo dedicado a eso, porque no son solo los trabajadores los que pueden abrir la puerta para un ataque, sino también los dispositivos.
“Hay que tener cuidado con los dispositivos de la línea de producción e industriales que se manejan en una empresa. Los atacantes podrían penetrar fácilmente a los sistemas a través de dispositivos que se están instalando en una red interna de la organización, sin controles de seguridad implementados o con sistemas operativos obsoletos, tanto a nivel de la red Local como en la Nube”, comentó.
Uno de los primeros pasos que muchas compañías están realizando es buscar ayuda de actores externos, ya que no son empresas con grandes presupuestos o que cuenten con el personal adecuado para proteger su información. Esa sería una manera ideal de construir soluciones para responder a los ataques que usan inteligencia artificial.
Finalmente, Croci recomienda a las empresas estar pendiente de sus proveedores o socios con los que comparten información, porque normalmente no son vistos como una extensión de la organización y puede ser una vía de ciberataque. Así que también se debe ejercer un control en esas operaciones y adaptarlos a los que hace la propia compañía.
INFOBAE