Las empresas deberán prepararse para un escenario donde los deepfakes, los modelos abiertos y los ataques automatizados por IA redefinirán la gestión de riesgos, el fraude y la protección operativa.
Los expertos de Kaspersky han revelado sus predicciones sobre el impacto que tendrá la inteligencia artificial en la ciberseguridad empresarial de cara a 2026. El análisis destaca que la rápida adopción de modelos de lenguaje, sistemas generativos y agentes autónomos marcará un antes y un después tanto en las defensas de las organizaciones como en la sofisticación de los ciberataques.
En un contexto donde la digitalización, el teletrabajo y la automatización ya son el pan de cada día, la IA se convertirá en un factor crítico para la resiliencia operativa, la reputación corporativa y la continuidad del negocio.
Los deepfakes pasarán de ser una amenaza emergente a un riesgo fijo para las empresas
El hecho de que muchos dominicanos aún no sepan qué es un deepfake, según un estudio de Kaspersky, representa una vulnerabilidad crítica para las empresas de la región. Esta falta de conocimiento expone a colaboradores, proveedores y clientes a fraudes cada vez más creíbles, impulsados por inteligencia artificial, en un entorno donde la suplantación de identidad, la manipulación de voz e imagen y la ingeniería social avanzada evolucionan más rápido que nuestra capacidad de detección.
En 2026, los deepfakes estarán plenamente integrados en el panorama de riesgos corporativos, por lo que las empresas deberán tratarlos como amenazas constantes y no como incidentes aislados. La suplantación de ejecutivos, los fraudes financieros, la manipulación de comunicaciones internas y los ataques dirigidos a áreas críticas como finanzas, compras y dirección general convertirán el desconocimiento en un riesgo directo para la continuidad del negocio, la reputación corporativa y la estabilidad económica.
Fraude con IA: mayor calidad y más al alcance de todos
La mejora drástica del audio sintético permitirá ataques de voz súper realistas, mientras que las herramientas de generación serán cada vez más fáciles de usar. Esto incrementará los casos de fraude por suplantación, estafas en transferencias, manipulación de proveedores y ataques al área financiera.
Falta de estándares sólidos para identificar contenido generado por IA
La ausencia de sistemas universales realmente fiables para etiquetar e identificar contenido generado por inteligencia artificial obligará a las empresas a reforzar sus propios mecanismos de validación, verificación y control de autenticidad, especialmente en procesos críticos como autorizaciones de pago, comunicaciones internas y gestión de proveedores. Esto implicará ajustes en los flujos operativos y una mayor inversión en tecnología y capacitación.
La IA como motor principal en toda la cadena del ciberataque
La IA será clave para que los actores maliciosos automaticen tareas que antes requerían altos niveles de experiencia. Desde la planificación y el desarrollo de herramientas hasta la preparación de infraestructuras y la generación de comunicaciones fraudulentas, la inteligencia artificial reducirá drásticamente los tiempos y elevará la profesionalización de cada fase del ataque.
Como resultado, las operaciones serán más rápidas, más escalables y mucho más difíciles de rastrear, aumentando la capacidad de los atacantes para adaptarse, evadir defensas y lanzar campañas altamente personalizadas contra organizaciones específicas.
Regulación, seguridad desde el diseño y control corporativo del uso de la IA
Si bien la reglamentación y las políticas públicas jugarán un rol clave en la adopción responsable de la inteligencia artificial, como lo reflejan los debates legislativos en Colombia y Brasil, la gestión efectiva de los riesgos asociados a la IA no puede depender exclusivamente del marco regulatorio. Las organizaciones deben anticiparse e integrar principios de seguridad y privacidad desde las etapas iniciales de diseño, desarrollo y despliegue de sistemas de IA, a lo largo de todo su ciclo de vida, con el fin de prevenir riesgos como la fuga de datos, manipulaciones, sesgos y usos indebidos de información sensible.
En este contexto, la decisión de permitir, limitar o restringir el uso de inteligencia artificial dentro de la organización deberá integrarse a la matriz de riesgos corporativa y formalizarse mediante políticas internas claras de gobernanza de IA. Procesos, datos y activos críticos o confidenciales no deben ser automatizados ni procesados mediante IA sin previas evaluaciones de impacto, controles técnicos robustos, auditorías periódicas y mecanismos de supervisión humana, a fin de garantizar un uso alineado con los principios regulatorios emergentes y asegurar que la empresa mantenga el control total sobre su información, sus decisiones y sus operaciones críticas.
“Lo más disruptivo de 2026 no será únicamente la capacidad técnica de los deepfakes o de la IA, sino el impacto directo que tendrán en la toma de decisiones empresariales. Las empresas deberán operar en un entorno en el que ya no será posible asumir que la información es auténtica por defecto, lo que obliga a repensar controles, políticas internas y modelos de seguridad desde el diseño. Esta pérdida de certeza transformará la forma en que se aprueban operaciones, se gestionan riesgos y se protege la confianza dentro de la organización. La verdadera ventaja competitiva ya no estará solo en detectar amenazas, sino en construir modelos de negocio resilientes, donde el uso de la IA esté alineado a la matriz de riesgo y la veracidad de la información deba ser verificada de manera sistemática”, asegura Claudio Martinelli, director general de las Américas en Kaspersky.
Para evitar este tipo de vulnerabilidades, los expertos de Kaspersky recomiendan:
1. Control web para reducir riesgos desde la navegación: Las empresas deben contar con control web para regular a qué sitios y recursos pueden acceder los empleados. Esto permite bloquear páginas maliciosas, plataformas de fraude o herramientas de generación de contenido peligroso, reduciendo el riesgo de infecciones, estafas y fugas de información desde el origen.
2. Control de aplicaciones en equipos y celulares corporativos: Es clave aplicar control de aplicaciones en desktops y mobile device management (MDM) para decidir qué aplicaciones pueden usarse dentro de la empresa. Esto ayuda a bloquear apps legítimas que están siendo usadas para estafas cuando no son necesarias para la operación, evitando suplantaciones, fraudes y comunicaciones no autorizadas.
3. Capacitación continua, el factor humano sigue siendo el mayor riesgo: Las empresas deben invertir en la educación constante de sus colaboradores, ya que el error humano sigue siendo la principal puerta de entrada de los ataques. Plataformas como Kaspersky Automated Security Awareness Platform (ASAP) de Kaspersky permiten entrenar a los empleados con cursos y simulaciones prácticas para reducir el riesgo de fraudes, phishing y suplantaciones basadas en IA.























