Inteligencia artificial, con todo por avanzar Abril 2026 | Page 95

INTELIGENCIA ARTIFICIAL no existe una única forma de ser humano. RLHF no se alinea con“ la humanidad”, sino con una versión específica de ella, la que fue etiquetada, valorada y premiada en el entrenamiento. Primera grieta: si se puede entrenar un sistema para que responda mejor, también se lo podría entrenar para que persuada mejor. 2- Alpha Persuasion es una idea que empieza a tomar forma en laboratorios de investigación y equipos de producto y apunta a la capacidad de la IA para influir en decisiones humanas. No se trata sólo de generar un texto coherente, sino de encontrar, entre miles de variantes posibles, la fórmula más adecuada para que una persona cambie de opinión, compre algo o adopte una conducta específica. Lo más inquietante es que Alpha Persuasion no necesita ser explícita. No se trata de propaganda burda o mensajes obvios, sino de microajustes: el tono, la palabra justa, la pausa, el orden de los argumentos, la activación emocional. Pequeños detalles que pueden inclinar decisiones sin que el usuario lo perciba. Suena potente, pero todavía falta la tercera pieza. 3- Tribe v2 va a lo más profundo: construye modelos capaces de entender dinámicas sociales, pertenencia grupal e identidad. Busca que entienda a qué grupo perteneces, cómo pensás dentro de ese grupo y qué tipo de mensajes resuenan en ese contexto. Es que no somos individuos aislados; somos parte de tribus, de comunidades, de marcos culturales que condicionan nuestras decisiones. Lo que Tribe v2 intenta es capturar esas normas implícitas, esos códigos compartidos, los sesgos colectivos. Así, una inteligencia artificial podría saber que te interesa un tema, cómo se discute ese tema en
La próxima frontera de la tecnología está en lo que pueden“ hacernos hacer”.
tu grupo de referencia, qué opiniones son aceptables y cuáles no, y qué tipo de narrativa tiene más chances de ser adoptada.
Una combinación explosiva Cuando se combinan los conceptos, se construye una arquitectura tecnológica capaz de aprender de nosotros, influirnos y contextualizar esa influencia en nuestras identidades sociales. Se trata de sistemas que entienden qué decimos, por qué lo decimos, con quién lo compartimos y cómo modificar ese comportamiento de forma sutil y efectiva. La pregunta incómoda es: ¿ qué pasa si estos sistemas no están alineados con el bienestar del usuario sino con los intereses de quien los controla? Porque la historia reciente de la tecnología no es precisamente un ejemplo de autocontrol corporativo. Las redes sociales ya demostraron que, cuando el incentivo es maximizar tiempo de uso o engagement, el sistema tiende a empujar contenidos que generan reacciones emocionales intensas, aunque eso implique polarización, ansiedad o desinformación. Ahora es posible imaginar ese mismo incentivo, pero con herramientas mucho más sofisticadas. En ese escenario, la manipulación se convierte en un proceso continuo, personalizado y prácticamente invisible. No hace falta mentir; alcanza con enfatizar ciertos aspectos, omitir otros, y elegir el momento adecuado para mostrar un mensaje. Un sistema que entiende tu estado emocional, tu contexto social y tus patrones de decisión puede intervenir con una precisión quirúrgica, y
95