Alejandro Canedo Vélez*

Ya no hay palabras que describan la velocidad a la que la IA está avanzando. Semana tras semanas, más que avances vemos saltos monumentales. En este panorama de gigantes en carrera, GPT-4o emerge como un ejemplo tangible del vertiginoso desarrollo de esta tecnología que fascina y perturba.
Con capacidades multimodales, es decir, “ver, oír, hablar, escribir, dibujar, calcular” y una velocidad de respuesta casi instantánea e incluso la habilidad de “comprender” y generar emociones (interpretar y emular, para ser más precisos), GPT-4o nos acerca a un futuro donde la interacción con las máquinas se asemejará cada vez más a una conversación humana, a la interacción entre los de nuestra especie.
Cada vez está más cerca el día en el que desarrollemos conexiones emocionales hacia nuestras “herramientas de trabajo” y que ellas comiencen a formar parte de nuestro círculo personal cotidiano. Sin embargo, este avance trae consigo nuevas y profundas preocupaciones éticas que exigen una reflexión urgente, especialmente en un mundo donde la IA ya está impactando nuestras vidas de manera profunda y acelerada.
La Nueva Frontera
La IA ya no es solo una herramienta tecnológica avanzada; es un campo en constante evolución que ha comenzado a transformar todos los aspectos de nuestra sociedad inapelablemente. Desde la mejora de la eficiencia hasta la innovación en la atención médica, pasando por la creatividad y la producción de contenidos, la IA tiene el potencial de superar ampliamente las capacidades humanas y, a estas alturas, no es una suposición. GPT-4o es un ejemplo de este avance, con sus capacidades multimodales y su capacidad para generar respuestas en tiempo real que se asemejan a una conversación humana. Sin embargo, este avance trae consigo desafíos éticos significativos que requieren una atención urgente. GPT-4o no es una superinteligencia aún, pero su capacidad para comprender y emular emociones abre un nuevo frente en la interacción humano-máquina.
Si bien GPT-4o es ya una muestra tangible del avance asombroso de los modelos de lenguaje, Google, Microsoft y otros startups del rubro como Antrhopic están ya armando planes no sólo para alcanzar esta super inteligencia, sino además para contenerla el día que sea más inteligente que nosotros y, sobre todo, autónoma.
La implementación de sistemas de IA como GPT-4o podría llevar a consecuencias no intencionadas si su diseño no incorpora valores humanos esenciales y limitar su capacidad de tomar decisiones en aspectos críticos. La posibilidad de que la IA actúe con una lógica que desvíe de los intereses humanos plantea un escenario riesgoso e incluso distópico.
 La creación de una IA éticamente alineada con los valores humanos es uno de los mayores desafíos que enfrentaremos de aquí en adelante. Es crucial que la IA no solo sea inteligente, sino que también esté motivada por principios éticos que promuevan el bienestar humano. ¿Quién controlará eso? Por ahora casi todo cae en manos de compañías que han prometido su buen comportamiento en declaraciones de principios y en sus objetivos.
Sesgos y discriminación del algoritmo
La IA, como cualquier herramienta, puede replicar los sesgos existentes en los datos que se utilizan para su entrenamiento, esto dependerá de la calidad, cantidad y variedad de datos de entrenamiento. GPT-4o, al ser capaz de generar respuestas emocionales, podría perpetuar y amplificar los sesgos existentes, lo que podría llevar a la discriminación en diversas áreas. Imagine, por ejemplo, un GPT-4o utilizado para evaluar candidatos a un puesto de trabajo. Si su entrenamiento ha sido sesgado, podría generar respuestas emocionales que reflejen prejuicios existentes, perpetuando la discriminación en el proceso de selección. Incluso antes de este modelo, la preselección de candidatos a puestos laborales ha generado controversias en varios países.
La complejidad de los modelos de lenguaje como GPT-4o dificulta la comprensión de cómo funciona internamente, es decir, entendemos las entradas y las salidas, pero las capas intermedias de los modelos son tan complejas que no es posible analizarlas. Esto, desde luego limita la transparencia y la capacidad de establecer mecanismos de rendición de cuentas.
Pérdida de privacidad y control
Por otro lado, mientras más confianza y “proximidad” generemos con las IA, estos sistemas recopilarán y analizan datos cada vez más personales, lo que plantea serios desafíos a la privacidad individual y el control sobre nuestros propia información. GPT-4o, al ser capaz de comprender y generar emociones, podría ser utilizado para recopilar información personal de forma subrepticia, incluso sin que el usuario sea consciente. No es difícil imaginar modelos de lenguaje que usen información sobre nuestras emociones para manipularnos o para obtener beneficios comerciales. Por lo tanto ¿qué límites éticos debemos establecer para la recopilación y el uso de datos emocionales?
Autonomía Humana
 La creciente dependencia de los sistemas de IA parece que solo irá en aumento y no estará demás preguntarse si la capacidad de estos modelos para generar emociones podría socavar nuestra capacidad de pensar críticamente y tomar decisiones independientes. ¿Podríamos llegar a depender excesivamente de la opinión de la IA, a aceptar sus respuestas sin cuestionarlas o a sentirnos emocionalmente influenciados por sus emociones simuladas? ¿Qué mecanismos podemos desarrollar para asegurar que los humanos mantengan el control sobre los sistemas de IA y que estos no se conviertan en una amenaza para nuestra libertad?
Para concluir, diremos que, idealmente, para que la IA se convierta en una fuerza positiva para la humanidad es necesario un esfuerzo conjunto de investigadores, gobiernos, empresas y la sociedad civil. Es fundamental promover la investigación ética en IA, desarrollar regulaciones robustas que protejan los derechos humanos, fomentar la transparencia y la rendición de cuentas, y educar a la sociedad sobre las implicaciones de la IA, esto, claro está, en el mundo ideal. La realidad pude ser muy diferente.