Publicidad

Síguenos en nuestras redes sociales:

Publicidad

#ColumnaInvitada | Los riesgos de la IAG y la ciberseguridad

La inteligencia artificial generativa ofrece oportunidades sin precedentes en medicina, educación, arte. Pero como cualquier herramienta poderosa, también desafíos, especialmente en ciberseguridad.
lun 26 febrero 2024 06:00 AM
#ColumnaInvitada | Los riesgos de la IAG y la ciberseguridad
La ciberseguridad en la era de la Inteligencia Artificial generativa (IAG) requerirá un enfoque mucho más proactivo y adaptativo, combinando innovación tecnológica con sólidas prácticas de seguridad y ética, apunta Julio César Bonilla Gutiérrez.

La Inteligencia Artificial generativa (IAG) se refiere a un subcampo de la Inteligencia Artificial que se centra en la creación de nuevos contenidos, o soluciones que no existían a partir de patrones aprendidos de conjuntos de datos existentes. La IAG utiliza algoritmos avanzados para generar texto, voz y otros tipos de medios de comunicación. Este campo tiene un crecimiento exponencial en los últimos años, impulsado por avances en el aprendizaje y el aumento de la disponibilidad de grandes cantidades de datos.

Publicidad

La IAG ofrece oportunidades sin precedentes en múltiples sectores, como: la medicina, la educación, el arte, entre otras. Pero como cualquier herramienta poderosa, también presenta desafíos, especialmente en la ciberseguridad. En ese sentido, es relevante considerar y explorar sus implicaciones desde la ciberseguridad, para que se puedan analizar los riesgos y las oportunidades.

La IAG ha sido aceptada, impulsada por su capacidad para automatizar y personalizar la creación de contenidos con una eficiencia que antes eran imposibles. Desde la generación automática de artículos periodísticos hasta la creación de arte personalizado, las aplicaciones de esta tecnología son ilimitadas. Sin embargo, esta capacidad de generar contenido realista a gran escala también ha abierto nuevas avenidas para actores maliciosos. Esto es, introduciendo riesgos en materia de ciberseguridad.

Uno de ellos, quizá el más evidente, es su potencial para crear desinformación sofisticada y realista, sus herramientas pueden producir textos, imágenes y videos que son prácticamente indistinguibles de los reales, lo que permite la creación de noticias y otros tipos de contenido fraudulento con relativa facilidad. Este tipo de contenidos puede ser utilizado para manipular la opinión pública, interferir en procesos electorales o incluso, para cometer delitos.

Asimismo, la IAG también introduce nuevas vulnerabilidades en la infraestructura tecnológica de las organizaciones; son susceptibles de ataques que afecten su funcionamiento, como los de envenenamiento de datos que pueden entrenar al modelo para comportarse de manera maliciosa. Además, podrían ser explotados para revelar información sensible sobre los datos a partir de los cuales fueron entrenados, planteando riesgos de privacidad y seguridad que atenten contra los derechos humanos de sus titulares.

La IAG también puede ser utilizada para automatizar y optimizar ataques cibernéticos. Este tipo de tecnología puede utilizarse para generar correos electrónicos de phishing, crear malware o software que se adapte para evadir su detección o incluso, para desarrollar técnicas de hacking que se adaptan en tiempo real a la seguridad de un sistema. Esta capacidad de adaptación y personalización hace que este tipo de ataques sean más difíciles de detectar y contrarrestar.

Por lo anterior, es preciso entender que la creación de contenido por este tipo de IA plantea importantes preguntas éticas y legales. La atribución de los derechos de propiedad intelectual y la responsabilidad legal por el contenido generado, son áreas complejas que aún están en proceso de definición. Generar contenido realista puede utilizarse para fines engañosos, lo que plantea preocupaciones sobre el origen, la veracidad, la autenticidad y la confianza que podemos tener en la información que consumimos.

Publicidad

En contraparte, la IAG ofrece oportunidades significativas para mejorar la ciberseguridad, se puede utilizar para generar datos en sistemas de detección de intrusiones, mejorar los protocolos de autenticación o incluso para desarrollar respuestas automáticas a incidentes de seguridad, la clave está en desarrollar estas tecnologías de manera responsable.

La colaboración entre desarrolladores, legisladores y otros actores es esencial para establecer marcos éticos y legales que guíen el uso de la IAG. Las políticas de gobernanza de datos, la seguridad y el desarrollo ético deben ser prioritarios para prevenir y mitigar los riesgos sin hacer nugatoria la innovación. La educación y la concientización de las y los usuarios sobre las capacidades y limitaciones de la IAG también son fundamentales.

Una cosa es cierta, debido a sus enormes capacidades y multiplicidad de aplicaciones, la IAG es una herramienta poderosa con el potencial de transformar la ciberseguridad. Los riesgos asociados son significativos, pero con la debida diligencia, colaboración y regulación, nos será posible aprovechar sus beneficios mientras minimizamos sus peligros. La ciberseguridad en la era de la IAG requerirá un enfoque mucho más proactivo y adaptativo, combinando innovación tecnológica con sólidas prácticas de seguridad y ética. En este equilibrio y su mantenimiento, radica la clave para desbloquear el potencial de la IAG de manera que beneficie a la sociedad en su conjunto, sin comprometer nuestra seguridad o nuestros valores éticos fundamentales.

___

Nota del editor: Julio César Bonilla Gutiérrez es Comisionado Ciudadano del INFO CDMX. Síguelo en LinkedIn. Las opiniones publicadas en esta columna corresponden exclusivamente al autor.

Publicidad

MGID Recomienda

Newsletter

Los hechos que a la sociedad mexicana nos interesan.

Publicidad

Publicidad