Conociendo los principios de Asilomar para la IA, una herramienta útil para los CEI

edición_especial_bioética

Por Patricia Raquel Mancilla Dávila.

 

Un tema sobre la mesa en las reuniones de los Comités de Ética en Investigación y de Bioética Hospitalaria, son las consideraciones éticas que se deben tener al implementar los Sistemas de Inteligencia Artificial (SIA) en investigación y en la relación médico-paciente.

Al ser los SIA una tecnología que avanza a un ritmo acelerado, las consideraciones éticas deben conocerse e implementarse de la misma manera, como esto no siempre es posible, es necesario revisar lo que ya está dicho sobre el tema para ayudarnos a tener mayor comprensión del alcance de lo que nos enfrentamos.

Por estas razones, hemos decidido dedicar algunas entradas del Blog del CISAV para conocer el marco ético en el que se fundamentan los SIA. Para iniciar conoceremos el origen de los Principios de Asilomar para la IA.

El Future of Life Institute (FLI) [1]nace en 2015, es una organización independiente, sin fines de lucro cuya misión es “dirigir la tecnología transformadora hacia el beneficio de la vida y alejarse de los riesgos extremos a gran escala”. (Future of Life Institute, s.f.)

En la página web del FLI (2023), se describe que su trabajo consiste en desarrollar políticas para cerrar las brechas entre los expertos en tecnologías transformadoras, las instituciones y el gobierno; divulgación y educación para comprender los desafíos de esas tecnologías; desarrollar y concesionar subvenciones de investigación; coordinar eventos y apoyar con la creación de instituciones dedicadas al estudio de las tecnologías transformadoras

El FLI ha clasificado los riesgos de las tecnologías transformadoras en 4 principales: la inteligencia artificial (IA); los avances biotecnológicos; las armas nucleares y el cambio climático. (Future of Life Institute, s.f.)

Una de sus aportaciones más significativas sucedió en 2017, en Pacific Grove, California, cuando convocó a líderes, expertos en la investigación y la industria de la IA y crearon los Principios de IA de Asilomar.

Los principios son 23 pautas para guiar la investigación, el desarrollo, la ética y cuestiones a largo plazo de la IA. Debido a que las pautas son recomendaciones de gobernanza de los sistemas de IA, el lector debe consultar la fuente original para profundizar en ellas.

A continuación, se mencionan algunas de las pautas que pueden ayudar a los miembros de los Comités de Ética en Investigación cuando dictaminan un protocolo con uso de sistemas de IA.

  • Las investigaciones sobre y con IA deben ser beneficiosas
  • Los patrocinios para generar estas tecnologías deben garantizar su uso beneficioso
  • Los sistemas de IA deben garantizar su seguridad y deben estar garantizados durante su vida operativa
  • Debe haber transparencia en las fallas que el sistema de IA pueda presentar
  • Cualquier decisión que un sistema de IA tome, debe ser verificada por una persona competente
  • Los diseñadores de sistemas de IA deben ser responsables de las implicaciones morales por un mal uso o malas acciones de esos sistemas
  • Los sistemas de IA deben diseñarse garantizando que sus objetivos y comportamientos se alineen con los valores humanos cuando están en uso
  • Los sistemas de IA deben diseñarse y operarse de manera que sean compatibles con la dignidad humana
  • Deben resguardar la privacidad personal de los datos que se obtienen y se generan con los sistemas de inteligencia artificial
  • Las tecnologías deben beneficiar a todas las personas como sea posible.

En la actualidad, el FLI colabora con la Unión Europea en un proyecto de Ley sobre la IA, en este proyecto se ha clasificado la IA en tres niveles de riesgo 1) Aplicaciones y sistemas que crean un riesgo inaceptable; 2) las solicitudes de alto riesgo; 3) Las solicitudes que no están explícitamente prohibidas o que figuran como de alto riesgo o no están reguladas (Future of Life Institute, s.f.).

Finalmente, es necesario mencionarle al lector que existen otros documentos más actualizados sobre las Recomendaciones Éticas de la IA, que revisaremos más adelante, en otras entradas de nuestro blog.

 

[1]


Referencias:

Future of Life Institute.(s.f.) https://futureoflife.org

Floridi, L., Cowls, J., Beltrametti, M., Chatila, R., Chazerand, P., Dignum, V., … & Vayena, E. (2021). An ethical framework for a good AI society: Opportunities, risks, principles, and recommendations. Ethics, governance, and policies in artificial intelligence, 19-39.

Propuesta de Reglamento del Parlamento Europeo y del Consejo por el que se establecen normas armonizadas sobre inteligencia artificial (Ley de inteligencia artificial) y se modifican determinados actos legislativos de la Unión, COM/2021/206 final, 21.4.2021.