Un sistema de inteligencia artificial (IA) podría predecir tus decisiones antes de que pienses en tomarlas; incluso vender la información a empresas y gobiernos. Con la tecnología actual, ese escenario parece remoto, pero los expertos en ética de IA ya advierten un futuro donde la ‘economía de la intención’ pondrá en duda la validez de las decisiones de las personas.
Algunos investigadores de la Universidad de Cambridge, Reino Unido, recopilaron sus pensamientos en torno al nuevo concepto de la economía de la intención y cómo, desde ahora, las piezas del tablero están colocadas para que la industria inicie sin complicaciones. Los expertos del Centro Leverhulme para el Futuro de la Inteligencia (LCFI) de Cambridge afirman que el lucrativo mercado de la intención de los usuarios abarcará desde aspectos banales como la compra de un boleto de cine hasta unas elecciones presidenciales.
Predecir, manipular y dirigir al usuario
La venta de datos para predecir comportamientos en masa ya tiene precedentes importantes. En 2016, el uso indebido de datos personales de Facebook ayudó a construir perfiles específicos de comunidades en línea para generar campañas políticas certeras y así influir en los resultados de las elecciones de Estados Unidos. En ese escándalo protagonizado por la compañía Cambridge Analytica fueron los años de interacciones y contenido compartido en la red social los que enriquecieron los perfiles psicológicos de los usuarios.
Lo que distinguirá los escenarios pasados de la economía de la intención del futuro es la masificación de los agentes de inteligencia artificial como ChatGPT, Copilot o Gemini. Quienes usan asistentes y agentes de IA suelen compartir más datos privados a través de conversaciones casuales bajo el supuesto de que nadie los lee. Por ahora, son servicios “de nicho”, una mera excentricidad que solo usan los más entusiastas de la tecnología. Pero poco a poco surgen más agentes especializados y casuales, como aquellos que simulan ser un amigo, un personaje de ficción o una pareja sentimental.
Para los investigadores, lo que la gente dice cuando conversa, el tono que usa y el contexto de la plática es más íntimo y explotable que cualquier registro de Facebook o Instagram. Un análisis oportuno con una IA más sofisticada de los registros de conversación de un chatbot arrojará datos irresistibles para la economía de la intención.
“Esta IA combinará el conocimiento de nuestros hábitos en línea con una extraña capacidad para sintonizarse con nosotros de maneras que nos resulten reconfortantes, imitando personalidades y anticipando las respuestas deseadas, para construir niveles de confianza y comprensión que permitan la manipulación social a escala industrial”, señala el artículo de la Universidad de Cambridge.
Para los doctores Jonnie Penn y Yaqub Chaudhary, ambos del LCFI, ya hay indicios de que las compañías se preparan para estos escenarios. El hecho de que se estén gastando enormes sumas de dinero para posicionar a agentes de IA gratuitos en la mayoría de las actividades cotidianas debería ser razón suficiente para cuestionarse las intenciones de las compañías. Ambos recientemente publicaron un artículo más detallado, titulado ‘Cuidado con la economía de la intención’, en la revista científica Harvard Data Science Review.
«Advertimos que ya se están desarrollando herramientas de IA para obtener, inferir, recopilar, registrar, comprender, pronosticar y, en última instancia, manipular y mercantilizar los planes y propósitos humanos», dijo Chaudhary.
Los autores instan a regular desde ahora el uso de la información que se genera a partir de una interacción con un agente de IA. Si no se hace, en algunos años habrá una nueva fiebre del oro para quienes buscan activamente influir en las decisiones de comunidades y personas específicas.