Es imposible ignorar el impacto de la IA generativa desde que irrumpió en escena. Algunas personas han adoptado sin vacilaciones esta tecnología como una estrategia de transformación del lugar de trabajo que anuncia una nueva era en la que nunca más tendrán que enfrentarse a las tediosas tareas de escribir un correo electrónico o de redactar un informe.
Por el contrario, para otros es el comienzo de una nueva oleada de novedades tecnológicas que parece que aportará ventajas incalculables a todos los sectores empresariales, desde la logística hasta el desarrollo de nuevos medicamentos para salvar vidas.
Pero el brillo inicial de esta tecnología innovadora, considerada como un importante avance en la productividad personal, también suscita ciertas preocupaciones, sobre todo en cuanto a la privacidad y seguridad de los datos.
A principios de este año, el gigante de la electrónica Samsung prohibió el uso de herramientas de IA generativa tras los informes de que empleados de Samsung habían compartido accidentalmente información confidencial mientras utilizaban ChatGPT como ayuda en su trabajo.
En un correo electrónico enviado al personal y del que se informó ampliamente en su momento, la empresa coreana declaró: "El interés por las plataformas de IA generativa como ChatGPT ha ido creciendo interna y externamente. Aunque este interés se centra en la utilidad y eficacia de estas plataformas, también existe una preocupación creciente por los riesgos de seguridad que presenta la IA generativa".
Samsung no es la única. Varias empresas (y algunos países) han prohibido la IA generativa. Y es fácil entender por qué.
En efecto, la utilización de herramientas como ChatGPT y otros grandes modelos lingüísticos (LLM) supone básicamente abrir la puerta a Shadow IT sin supervisión: dispositivos, software y servicios que no son propiedad de las organizaciones informáticas o que estas no controlan.
Y el problema es sencillo. Tanto si se trata de un empleado que experimenta con la IA (o de una iniciativa de la empresa), una vez que los datos propios se exponen a la IA, no hay vuelta atrás. No te equivoques. La IA es increíblemente prometedora. Pero sin la protección adecuada, plantea riesgos importantes para las empresas y las organizaciones.
Según una encuesta reciente de KPMG, los ejecutivos esperan que la IA generativa tenga un impacto enorme en los negocios, pero la mayoría declara que no están preparados para su adopción inmediata. Encabezan la lista de preocupaciones la ciberseguridad (81 %) y la privacidad de los datos (78 %).
Por eso, los responsables de la seguridad deben encontrar un equilibrio entre permitir la innovación transformadora a través de la IA y mantener el cumplimiento de la normativa sobre privacidad de datos. Para ello, la mejor estrategia es aplicar controles de seguridad Zero Trust, para que las empresas puedan utilizar de forma segura las últimas herramientas de IA generativa sin poner en riesgo la propiedad intelectual y los datos de los clientes.
Zero Trust es una metodología que exige una estricta verificación de la identidad de cada persona y dispositivo que intenta acceder a los recursos de la red. A diferencia de un enfoque "perimetral" tradicional, una arquitectura Zero Trust no confía en nadie ni en nada.
Este enfoque es fundamental para cualquier organización que desee utilizar la IA. ¿Por qué? Porque los controles de seguridad Zero Trust permiten a las empresas utilizar de forma segura las últimas herramientas de IA generativa sin poner en riesgo la propiedad intelectual y los datos de sus clientes.
Las organizaciones que utilizan la IA generativa deben asegurarse de que sus sistemas son lo suficientemente eficaces a fin de evitar cualquier problema de seguridad.
Es imprescindible saber cuántos empleados experimentan con los servicios de IA y para qué los utilizan. Para garantizar la seguridad de los datos de tu organización, es necesario ofrecer a los administradores del sistema la supervisión (y el control) de esta actividad, por si es necesario su desactivación en cualquier momento.
La adopción de un servicio de prevención de pérdida de datos (DLP) ayudará a proporcionar una protección para cerrar la brecha humana en cómo los empleados pueden compartir datos. Al mismo tiempo, unas reglas más granulares pueden incluso permitir a determinados usuarios experimentar con proyectos que contengan datos confidenciales, con límites más estrictos para la mayoría de los equipos y empleados.
En otras palabras, si las organizaciones van a utilizar la IA en todas sus vertientes, necesitan mejorar su seguridad y adoptar un enfoque Zero Trust. Aunque es importante destacar el tema, no es necesario caer en el sensacionalismo en torno a las preocupaciones relacionadas con una tecnología con tanto potencial.
Al fin y al cabo, con cada avance transformador de la tecnología, desde los teléfonos móviles hasta la informática en la nube, surgen nuevas amenazas para la seguridad. Y cada vez la industria ha respondido para reforzar la seguridad, el protocolo y los procesos. Lo mismo ocurrirá con la IA.
Este artículo forma parte de un conjunto de publicaciones sobre las últimas tendencias y temas que afectan a los responsables de la toma de decisiones sobre tecnología en la actualidad.
Este artículo se elaboró originalmente para The AI Journal.
John Engates,
director de Tecnología, Cloudflare, @jengates
Después de leer este artículo podrás entender:
Los riesgos que plantea el uso de la IA
El papel que puede desempeñar Zero Trust en la activación segura de las herramientas de IA