Ante el boom de la inteligencia artificial (IA) en 2023, no resulta extraño que la mayoría de predicciones para 2024 apunten a una continuación de las tendencias tecnológicas de los anteriores 12 meses. Más pronto que tarde veremos impresionantes investigaciones e invenciones que sacan provecho de la IA para optimizar flujos de trabajo y mejorar la calidad de vida de todo el mundo. Desafortunadamente, no parece que este progreso tecnológico vaya de la mano con avances en la ética de la IA.
La IA es una herramienta poderosa, pero debe tener controles. De lo contrario, su democratización puede beneficiar a personas que no tienen las mejores intenciones.
La democratización de la IA, ¿la caja de Pandora moderna ?
El escepticismo no es injustificado, pero el potencial positivo de la IA es difícil de negar.
Basta con leer esta investigación publicada en Nature Computational Science: una IA que analiza eventos y conceptos importantes en la vida de una persona para determinar su esperanza de vida. También está este artículo en Nature, que presenta un robot potenciado por GPT-4 que planea, diseña y ejecuta reacciones químicas por su cuenta.
¡Y quién sabe qué otras novedades hayan surgido para el momento en el que esté leyendo este blog! Sin embargo, parece que cada uso positivo de la IA debe ir acompañado por uno negativo. Y puede ir desde lo preocupante hasta lo perturbador.
Entre otras cosas, este artículo en Techcrunch hace referencia a una noticia publicada por AP. LAION —un repositorio de imágenes empleado para entrenar IA generativas como Stable Diffusion e Imagen— contenía miles de imágenes de abuso sexual infantil.
El descubrimiento fue hecho por el Observatorio de Internet de Stanford. A pesar de que LAION ha retirado su conjunto de datos (dataset) y no volverá a subirlo hasta eliminar todo el material ilegal, este suceso evidencia la ausencia de supervisión y medidas de seguridad a la hora de utilizar estas aplicaciones. Hoy en día, la proliferación de herramientas IA sin código facilita que cualquier usuario haga de las suyas.
Otro caso es el de StyleDrop, una herramienta de IA que crea imágenes replicando estilos específicos. Aunque menos inquietante que el caso de LAION, el hecho de que este programa potencialmente puede usarse para hacer plagio reitera el punto.
Incluso las primeras aplicaciones que mencionamos, correspondientes al campo de la salud y la química, tienen sus problemas. Como señala The Stanford Daily, las IA no están libres de sesgos políticos. Lea este blog para saber más al respecto.
En el caso puntual de la salud, es urgente implementar una gobernanza ética sobre los datos sensibles que maneja la IA. Un reporte de Bussiness Wire revela que un 60% de los pacientes no confía en la IA por la falta de transparencia y los mencionados sesgos.
Como señala Forbes, sin importar cuánto avance la IA, las interacciones humanas deben permanecer como el núcleo de la atención a la salud. Si quieren sacar provecho a esta tecnología, las compañías deben educar a los profesionales sobre las limitaciones de la IA, no prescindir de la supervisión humana y fijar marcos éticos.
¿Qué es la ética de la IA?
IBM define la ética de la IA como “un campo multidisciplinario que estudia cómo optimizar los beneficios de la IA y reducir sus riesgos y resultados adversos”. Si bien no hay un marco universal como tal, la comunidad académica suele apoyarse en los siguientes principios del Informe Belmont como guía para la ética de la IA:
-
Respeto a las personas. Los involucrados en un experimento de inteligencia artificial deben estar al tanto de los potenciales riesgos y beneficios. Adicionalmente, deben poder retirarse del experimento si así lo desean.
-
Beneficencia. La IA no debe hacer daño a los humanos. Claro, esto va más allá de lo físico. La inteligencia artificial también debe evitar discriminar individuos por su raza, religión, orientación sexual, género, orientación política, etc.
-
Justicia. ¿Quién ha de recibir los beneficios por la experimentación con IA? El Informe Belmont establece 5 formas para hacer la repartición: igualdad, necesidad individual, esfuerzo individual, contribución a la sociedad y mérito.
Con estos principios y las actuales preocupaciones alrededor de la inteligencia artificial, tales como su impacto en el mercado laboral, las compañías deben establecer marcos de gobernanza. Estos han de especificar las responsabilidades de los empleados que trabajan con IA, informar sobre sus riesgos y educar sobre cómo crear IA responsable.
Por el momento, cada organización es la encargada de definir su ética de IA. Google, la Comunidad de Inteligencia de los Estados Unidos y la Agencia de EE. UU. para el Desarrollo Internacional (USAID) ya tienen sus propios marcos de gobernanza.
¿Qué medidas se han tomado garantizar un control ético de la IA?
Con el auge de la IA generativa en 2023, múltiples países han estado trabajando en legislaciones para regular esta tecnología. Aun así, esta cuestión no solo está en manos de los gobiernos. Un panel de académicos de IA —organizado por MIT Sloan Management Review y Boston Consulting Group— señaló que las empresas no están invirtiendo adecuadamente en el uso responsable de la inteligencia artificial.
Como reitera Fortune, hay un gran escepticismo frente al uso de la IA. Sin embargo, varias empresas reconocen que el potencial de la IA solo puede desbloquearse cuando se empareja con la supervisión humana. Entre estas se encuentran DLA Piper e IBM.
De hecho, esta última compañía ha habilitado watsonx.governance. Este toolkit ayuda a los negocios a monitorear y administrar sus actividades de IA. También utiliza automatización de software para reducir riesgos, gestionar requerimientos regulatorios y solucionar preocupaciones éticas. El fin es ofrecer transparencia a los empleados que trabajan con IA. Y en campos como la salud, los pacientes tienen que recibirla.
No menos importante, la UNESCO celebrará el segundo Foro Global sobre la Ética de la Inteligencia Artificial el próximo 5 y 6 de febrero. Este espacio permitirá a responsables de alto nivel, líderes de la industria y representantes de instituciones científicas e investigativas —además de organizaciones no gubernamentales— compartir sus ideas y buenas prácticas sobre la gobernanza de la IA a nivel mundial, regional y nacional.
Más allá de su permanencia, el futuro de la IA sigue siendo incierto. Aún estamos en una etapa temprana de la IA y el mundo todavía se está acoplando a su llegada. Esta es una razón de fuerza para establecer unas reglas de juego que aseguren que la inteligencia artificial se desarrolle y utilice con el beneficio de la humanidad en mente.