Inteligencia artificial, con todo por avanzar Abril 2026 | Page 96

INTELIGENCIA ARTIFICIAL
lo puede hacer sin que lo percibas como una intervención externa. Se sentiría como una idea propia. Esto abre la puerta a escenarios que hace unos años parecían exagerados.- Campañas políticas hiper segmentadas que no sólo adaptan el mensaje, sino que lo ajustan dinámicamente en función de la reacción emocional del votante.- Plataformas de consumo que no sólo recomiendan productos, sino que modelan deseos.- Sistemas educativos que, en lugar de expandir el pensamiento crítico, refuerzan determinadas visiones porque“ funcionan mejor” en términos de engagement.- Relaciones humanas mediadas por agentes que aprenden a ser gustados, validados y a generar apego, desplazando vínculos reales. El riesgo no es sólo la manipulación directa, sino la erosión progresiva de nuestra autonomía. Cuando las decisiones empiezan a ser influenciadas de forma sistemática por sistemas que entienden mejor que nosotros mismos nuestros sesgos y vulnerabilidades, la línea entre elección y condicionamiento se vuelve difusa. Eso tiene implicancias culturales profundas, porque no se trata sólo de qué compramos o a quién votamos, sino de cómo construimos nuestras opiniones, identidades y relaciones. La discusión no pasa por si estas tecnologías son buenas o malas, sino bajo qué condiciones se desarrollan y se utilizan. Qué tipo de regulación se establece para que no se convierta en una herramienta de explotación, y cómo preservar espacios de decisión autónomos en un entorno cada vez más mediado por sistemas inteligentes. La verdadera influencia tecnológica de estas tecnologías, es antropológica. Estamos creando sistemas que operan sobre la materia prima más sensible que tenemos: nuestras emociones, nuestras creencias, nuestra necesidad de pertenencia. Esto exige un nivel de responsabilidad que todavía no estamos demostrando como sociedad. La tecnología avanzó más rápido que nuestra capacidad de entender sus consecuencias. No se trata de caer en un pesimismo apocalíptico ni de frenar la innovación. Sería bastante inútil, además de ingenuo, pero sí debemos reconocer que se ingresa en un terreno nuevo, donde las reglas del juego no están del todo claras y los incentivos económicos pueden empujar en direcciones poco saludables. Y en ese contexto, la vigilancia crítica, la educación y la construcción de marcos éticos sólidos dejan de ser opcionales. La próxima frontera de la tecnología no está en lo que las máquinas pueden hacer, sino en lo que pueden“ hacernos hacer” a nosotros. Y eso, por alguna razón, no suele aparecer en las presentaciones comerciales llenas de promesas optimistas.
(*) CEO de Varegos, docente universitario especializado en IA
96