Aunque no hay consenso sobre una definición formal, expertos coinciden en que la Inteligencia Artificial (IA) es un campo de la informática enfocado en crear sistemas (máquinas o robots), que pueden realizar tareas que normalmente requieren inteligencia humana como el aprendizaje, el razonamiento y la percepción.
#ColumnaInvitada | La Inteligencia Artificial y los límites éticos
En la última década ha sido frenética la expansión de esta tecnología y la creación de nuevas empresas dedicadas al sector. El Índice de Inteligencia Artificial que elabora anualmente la Universidad de Stanford reporta que entre 2013 y 2022 los países con mayor inversión privada en IA fueron Estados Unidos (249,000 millones de dólares –mdd-) y China (95,000 mdd). El gigante asiático aspira a liderar esa carrera en 2030 y para ello hace obligatoria su enseñanza desde el nivel básico.
Según su potencia y capacidad se puede distinguir a la IA en débil, fuerte y superinteligente. Se cree que esta última superaría a la inteligencia humana en todos los aspectos; con la IA débil o estrecha convivimos de manera cotidiana a través del machine learning o aprendizaje automático, en máquinas o dispositivos que van identificando nuestros gustos y perfiles a partir de la información que les suministramos y de las instrucciones que damos, por ejemplo, a Siri de Apple, Alexa de Amazon y aplicaciones como Waze, que nos indica el camino a casa aun cuando tengamos otro destino, o cuando hacemos compras en línea que parecen intuir nuestras preferencias.
Años atrás presenciamos con asombro destellos de IA. En mayo de 1997, la Deeper Blue una macrocomputadora diseñada por IBM derrotó en seis partidas al campeón del ajedrez, Gary Kaspárov. Ese mismo año el mundo quedó boquiabierto ante el anuncio del nacimiento de una oveja clonada a partir de una célula adulta. La investigación científica para la gestación de Dolly basada en transferencia nuclear ha sido un antecedente fundamental para el empleo de la IA en la medicina, que utiliza grandes cantidades de datos para mejorar los diagnósticos individuales.
Sin embargo, el uso de tecnologías inteligentes se expande sin control y se ha involucrado en varios aspectos de nuestras vidas. Casas y fábricas inteligentes, compras por internet, vehículos autónomos y los mencionados asistentes personales digitales son solo algunos ejemplos. Google debe su éxito a los algoritmos de sus motores de búsqueda que en segundos arrojan miles de resultados, lo mismo que las plataformas de Meta (Facebook, Instagram).
Cuando buscamos repetidamente información en Internet y en nuestro teléfono celular, los algoritmos conocen con detalle lo que hacemos y pueden incluso deducir qué pensamos y cómo nos sentimos. Esto no es nuevo, pero sí lo es interactuar con un chatbot (software que simula una conversación real con una persona) conocido como Chat GPT que puede imitar nuestra voz, componer una canción o redactar una conferencia. Desde su lanzamiento esa plataforma solo ha necesitado dos meses para alcanzar los 100 millones de usuarios únicos.
Dolly simbolizó un cisma en los límites éticos de la ciencia hace un cuarto de siglo. Ahora el febril desarrollo de la IA asombra y preocupa al mismo tiempo. En abril, Geoffrey Hinton, considerado el padrino de la IA renunció a su puesto en Google para alertar sobre los peligros de las técnicas que él mismo ayudó a desarrollar. Hace algunos días, al celebrarse la primera audiencia sobre el tema en el Congreso estadounidense, Samuel Altman, cofundador de OpenAI -la empresa incubadora del Chat GPT-, advirtió al mundo: “mi peor miedo es que esta tecnología salga mal. Y si sale mal, puede salir muy mal”.
El debate actual se centra en la exigencia de regular su uso y desarrollo. En el conflicto bélico entre Rusia y Ucrania se ensaya equipo militar diseñado por sistemas de IA que controlan las armas autónomas; la ciberguerra o la manipulación de la opinión pública son otras manifestaciones de los riesgos (EU acusó a Rusia de interferir en la elección presidencial de 2020 a favor de Trump). Una prueba alarmante de la intrusión y violación a la privacidad personal es el sofisticado software espía Pegasus, de origen israelí, que al instalarse extrae toda la información contenida en un teléfono celular y cuyo uso al menos por el momento, se politiza.
Las implicaciones éticas deben considerar el probable sesgo en los algoritmos de la IA. Una amenaza latente es la desinformación en el mundo digital y la necesidad de verificarla. La respuesta europea promueve Cartas de Derechos Digitales que garanticen la protección y privacidad individual y que además contribuyan a cerrar las brechas existentes de género, económicas y sociales.
En el mundo científico hay quienes confían en que la IA supere a la inteligencia humana, otros en cambio, consideran que jamás habrá de asimilarse porque el sentido común es requisito fundamental para alcanzar una IA similar a la humana en cuanto a generalidad y profundidad.
Por muy audaces que lleguen a ser, las supermáquinas serán inteligencias distintas a las nuestras, ajenas a procesos de asimilación cultural, socialización y valores humanos. Ahí radican las limitaciones éticas de su desarrollo.
_______________
Nota del editor: la autora es titular de la Unidad de Igualdad de Género y Cultura de la Fiscalización de la ASF. Las opiniones de este artículo son responsabilidad única de la autora.