Principios normativos para una ética de la inteligencia artificial

 Autor: Fabio Morandín Ahuerma

Morandín-Ahuerma, F. (2023). Principios normativos para una ética de la inteligencia artificial. Consejo de Ciencia y Tecnología del Estado de Puebla (CONCYTEP).

Resumen:

En el último lustro se han publicado múltiples documentos avalados por diferentes organizaciones, pero con un solo propósito: crear un marco de principios éticos cuya observancia garantice el desarrollo de una inteligencia artificial (IA) en beneficio de los usuarios y, en general, de la sociedad. Sin embargo, son tantos los principios que se han propuesto que, muchas veces se genera confusión y, en el peor de los casos es imposible su sistematización y aplicación, porque muchos de estos principios son ambiguos, polisémicos, esto es que tienen varios significados e incluso algunos, llegan a ser contradictorios.

El propósito de este trabajo es revisar esa lista, analizarla y tratar de proponer los principios éticos fundamentales que deberían observar los desarrolladores de software al programar algoritmos y, sobre todo, rescatar de la ética clásica algunos elementos para facilitar la comprensión del tema, descomponer la discusión estéril de algunos conceptos y resumirlos en honestidad, intencionalidad y conciencia moral.

En un mundo donde la inteligencia artificial se ha convertido en una parte integral de la vida diaria de millones de personas, los principios y las consideraciones éticas que rodean su desarrollo y uso nunca fueron tan importantes como lo son ahora. Basta observar lo que está sucediendo hoy en Ucrania, en donde drones inteligentes, no tripulados, atacan a la población civil.

Una buena definición de inteligencia artificial redactada en 2023 por el Grupo de Trabajo Nacional de Recursos de Investigación de IA de los Estados Unidos [NAIRR] se refiere a que IA es un sistema basado en una máquina que puede hacer predicciones, recomendaciones o tomar decisiones que influyan en entornos reales o virtuales, para un conjunto dado de objetivos definidos por el ser humano. Los sistemas de inteligencia artificial utilizan entradas basadas en máquinas y humanos para: percibir entornos reales y virtuales; abstraer dichas percepciones en modelos mediante análisis de forma automatizada y utilizar la inferencia de modelos para formular opciones de información o acción.

Actualmente se tiene una explosión de inteligencia artificial gracias a la liberación de los modelos de lenguaje como GPT4 de Open AI y Bing Chat de Microsoft. Lo mismo los creadores de texto a imagen como Midjourney y StableDiffusion. Otras muestras asombrosas de IA son Glass.ia, capaz de dar un posible diagnóstico médico en segundos. De hecho, los propios involucrados en el desarrollo de IA están pidiendo, tal vez ingenuamente, una suspensión a su desarrollo en tanto no se conozca con certeza las consecuencias positivas y negativas venideras. De ahí la urgencia de conocer por todos estos Principios normativos para una ética de la inteligencia artificial, que es el título de este libro.

Por ello, los «Veintitres Principios de Asilomar» del Instituto del Futuro de la Vida son un conjunto de pautas desarrolladas por expertos en el campo, quienes describen principios clave para una IA segura y beneficiosa. Esta propuesta se une a la «Declaración de Montreal por una IA responsable», que enfatiza la importancia del desarrollo y despliegue de la tecnología en un marco social ético.

En Europa también ha surgido un enfoque único de la ética de la IA, centrado en los derechos humanos y la transparencia. Las «Directrices éticas para una IA fiable» enfatizan la necesidad de que la IA se desarrolle de una manera que se alinee con los valores y aspiraciones universales que protejan los derechos individuales.

A escala global, la Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (Unesco) también ha emitido recomendaciones sobre la ética de la IA. Esta «Recomendación sobre la ética de la inteligencia artificial adoptada el 23 de noviembre de 2021 [SHS/BIO/REC-AIETHICS/2021]», enfatiza la importancia de garantizar que la IA se desarrolle de una manera que promueva la dignidad humana, la privacidad y la diversidad.

Del mismo modo, la Organización para la Cooperación y el Desarrollo Económicos (OCDE) ha redactado un conjunto de principios para el desarrollo y despliegue responsable de la IA denominado «Recomendación del Consejo de la OCDE sobre Inteligencia Artificial [OECD-LEGAL-0449]». Estos principios enfatizan la transparencia, la rendición de cuentas y la inclusión.

Por su parte, desde la sociedad civil, la Asociación sobre IA en beneficio de las personas y la sociedad [Partnership on AI - PAI] es una colaboración entre los principales actores de la industria tecnológica, organizaciones sin fines de lucro e instituciones académicas para garantizar que la IA se desarrolle y utilice de una manera que beneficie a las personas y a la sociedad y ha emitido una serie de documentos [White papers] en los que se especifica una postura ética proactiva hacia la IA.

Tampoco se deben minimizar los esfuerzos por construir un marco ético normativo que las propias empresas que desarrollan tecnología de punta como Google, Microsoft, Meta y Apple, entre otras, están construyendo para beneficio y protección de sus usuarios y de sus inversores en materia de algoritmos de inteligencia artificial, así como otras políticas empresariales autoimpuestas.  

Los países líderes en el desarrollo de la inteligencia artificial como lo son Estados Unidos [National AI Initiative Act of 2020 – Iniciativa Nacional de IA], China [新一代人工智能伦理规范 - Normas éticas para una nueva generación de IA] y Rusia [Кодекс этики в сфере ИИ - Código de Ética de IA] son solo la muestra de que también las naciones están redactando sus respectivas políticas de Estado para el desarrollo y aplicación de una IA ética y benéfica para uso civil.

Juntos, estos diversos principios y recomendaciones brindan una hoja de ruta para el desarrollo y despliegue responsable de IA, asegurando que el potencial de esta tecnología transformadora se realice de una manera que ayude a toda la humanidad, o al menos eso es lo que esta investigación ha arrojado.

Sin embargo, al final de esta larga revisión de la literatura de los principios actuales, se ofrece una lectura crítica a modo de conclusión en el capítulo «Menos, es más: Reconstruir una ética clásica normativa para un futuro responsable de la IA».

Muchos filósofos, científicos y pensadores han reflexionado sobre estos temas a lo largo de los años y han contribuido al debate sobre la ética aplicada a la inteligencia artificial, por eso el interés de explicitar aquí los fundamentos para el desarrollo de una IA que sirva a la humanidad para cumplir sus más preciados anhelos y ponderar cuáles podrían ser los riesgos más acuciantes que deben solventar.

Se espera que la lectura de este trabajo sea fructífera sin importar el nivel de conocimiento que se tenga sobre el tema. El Consejo de Ciencia y Tecnología del Estado de Puebla se ha convertido en un divulgador nato de los avances de la ciencia, de sus ventajas y retos, que, al mismo tiempo, son los objetivos compartidos que se persiguen con la publicación de este trabajo de nuevo investigación. 

[ Texto completo ]