Si después de ver Star Wars quedaste con ganas de tener un mejor amigo robot como R2-D2, quiero contarte que parece que no estás muy lejos de la ficción.
En los últimos años, hemos sido testigos de una transformación en la relación entre los humanos y la tecnología. La aparición y la rápida evolución de la inteligencia artificial y los chatbots han llevado a una interacción más profunda y significativa, a menudo llegando al punto de considerar a estos asistentes virtuales como entrenadores de vida personales.
Uno de los gigantes tecnológicos ya puso su firma en una nueva herramienta basada en IA generativa, DeepMind. La división de inteligencia artificial de Google, en este caso, anunció que está trabajando en un nuevo proyecto de IA capaz de ofrecer consejos tanto personales como profesionales.
La noticia generó un gran debate en cuanto a las preocupaciones éticas que esto conlleva. Si nos devolvemos un par de años atrás podremos recordar el despido que hizo Google a las dos líderes de su equipo de IA ética, entre ellas Timnit Gebru.
Después de dos años y medio de la polémica que generó por sus palabras en el informe El peligro de los loros estocásticos y de su despido, Gebru sigue mostrándose reacia a la revolución de la IA y así lo manifestó en una entrevista para El Confidencial, “Nos están vendiendo un futuro utópico en el que no hay humanos. Te despiertas y hablar con un chatbot, obtienes tu música de un chatbot…”.
Aquello nos dejó más claro el panorama de esta realidad, y es que si bien la inteligencia artificial nos ofrece múltiples beneficios en cuanto a la toma de decisiones, esto también trae a la luz importantes desafíos y preocupaciones éticas y morales.
Responsabilidad y dependencia
Si los asistentes virtuales están influyendo en las decisiones y acciones de las personas, surge la cuestión de quién es responsable en caso de resultados negativos. ¿Los desarrolladores, los usuarios o la propia máquina?
Además de que esta relación puede volverse un poco tóxica y llegar a debilitar tu habilidad para hacer las cosas por ti mismo y resolver problemas por tu cuenta.
Reemplazo de relaciones humanas
Aunque este uso difícilmente permitirá reemplazar la capacidad natural de una persona para poder hablar con otra y expresar sus ideas, la empatía y la comprensión genuina son elementos que aún no pueden ser completamente replicados por la tecnología, y esta sensación de apoyo, así no lo queramos ver, es superficial, ya que carece de la profundidad y el contexto emocional de una relación humana verdadera.
Tampoco hay que evadir que, aunque suene exagerado, podría surgir una situación en la que nos sintamos menos cómodos al comunicarnos con otros seres humanos, o que el uso excesivo de estas herramientas generen dificultades en nuestras habilidades sociales y en la forma en que nos relacionamos con los demás, llegando al punto en que nos resulte complicado hablar y conectarnos de manera efectiva con otras personas.
Sesgos ocultos
Este es un tema que anteriormente hemos tratado y es el trasfondo de las respuestas de una IA; si los datos utilizados para entrenarlas están diseñados en función de algoritmos, esto los hace más propensos a sesgos y errores.
Seguir estos consejos ciegamente podría llevar a decisiones incorrectas o incluso peligrosas, te pongo un ejemplo claro; imagina que a una IA diseñada para ayudar a las empresas con entrevistas laborales automatizadas. Esta IA ha sido entrenada en base a patrones de contratación previos en los que ciertas características personales como género o etnia, influyen inadvertidamente en las decisiones de contratación hasta el punto de subestimar al candidato debido a su origen étnico, perjudicando sus posibilidades.
Lo que nos espera en esta relación
El futuro de la inteligencia artificial es prometedor y lleno de posibilidades, pero también plantea importantes interrogantes éticas y morales sobre cómo esta evolución afectará nuestras decisiones y valores fundamentales.
¿Es apropiado delegar a las máquinas la definición de lo que es correcto o incorrecto? ¿Es realista esperar que la IA pueda ser programada con datos que reflejen la diversidad de perspectivas humanas? ¿Qué implicaciones tendría para nuestra autonomía y responsabilidad individual? ¿Cómo podemos asegurarnos de que la IA tenga en cuenta las diferencias culturales y éticas?
La clave de estas respuestas radica en un enfoque colaborativo entre tecnología, ética, y regulación. Así, podremos aprovechar la IA sin perder nuestra humanidad.