El especialista en tecnologías emergentes advirtió sobre los peligros de la inteligencia artificial y aseguró que hay en curso una “guerra algorítmica”.
Por Malena Cignacchi
Perfil.com
25-06-2025
El especialista en tecnologías emergentes y en cultura digital, Joan Cwaik*, advirtió sobre los peligros de la Inteligencia Artificial y consideró que es urgente entender cómo esta tecnología organiza lo que vemos y lo que consumimos. “No deberíamos darle nuestras llaves de la percepción y atención a un sistema que no entendemos”, dijo en Modo Fontevecchia, por Net TV, Radio Perfil (AM 1190) y Radio JAI (FM 96.3).
_Estás presentando tu cuarto libro, El algoritmo: ¿quién decide por nosotros? Estos días, me llamó la atención que durante el ataque de Irán a las bases de Estados Unidos en Qatar, los militares estaban esperando que inteligencia artificial les indicara en qué momento destruir el misil que estaba viniendo. Normalmente se destruye un minuto antes de que haga impacto, y esta vez se hizo a los 25 segundos. Y ellos estaban totalmente aterrados porque no podían hacer nada, es más, que esperar que el algoritmo estuviera correcto. ¿Quién decide por nosotros entonces?
_Buen día, Jorge, gracias por el espacio. ¿Y qué mejor que arrancar con el tema de Jorge Drexler que escuchábamos recién? Parece una canción que es en realidad un diagnóstico. Porque hoy el algoritmo no solo nos recomienda o decide por nosotros, sino que también edita las realidades, yo creo que los deseos y hasta las creencias de lo que estamos viviendo.
_Hoy hablar de algoritmos es hablar de poder y de un nuevo poder. Porque cuando un sistema organiza lo que vemos, lo que consumimos y hasta lo que creemos, estamos discutiendo cómo se estructura la sociedad.
_Yendo al tema de la guerra en Medio Oriente, vemos que el conflicto parece, ojalá, que desescalar, pero la guerra algorítmica sigue. Entonces, estamos viviendo hoy en día, los ejércitos también hoy en día son de datos y de percepciones. Y esto lo podemos vincular con cómo el algoritmo, como yo lo entiendo, es una arquitectura social oculta. Porque ya no solamente son leyes o instituciones, es el código, son fuerzas invisibles que determinan todo lo que estamos eligiendo políticamente constantemente.
_A ver, entonces, para ponerlo en términos concretos: cuando uno mira que la Marina de Irán es 10 veces la Marina de Israel en cantidad de soldados —esto aún se multiplica— Irán es un país de 100 millones de habitantes, finalmente Israel, con muchísimo menos pero con tecnología, logra vencerlo. Es decir, estamos en un punto a partir del cual la tecnología cambia incluso la relación de poder militar en el mundo.
_Yo siento que, sin lugar a dudas. Estamos viviendo un lugar donde la tecnología cambia todo. Y de alguna forma, yo siento que la tecnología multiplica las asimetrías. Y lo mismo pasa en el algoritmo que usamos todos los días. No importa cuántos seamos, importa qué están organizando, qué sistema están organizando la partida. Entonces, yo siento que hoy en día la tecnología y los algoritmos no solamente nivelan el poder sino que lo rediseñan.
Y yo siento que hoy en día estamos viviendo lo que se llama, para muchos, un analfabetismo algorítmico. Porque si en el siglo XX antes era no saber leer, hoy es no entender cómo esos sistemas de alguna forma filtran nuestra realidad, y sin ese entendimiento uno pierde poder, entre otras hipótesis que yo planteo en el libro. Entonces, sí, sin lugar a dudas siento que se multiplican asimetrías en ese sentido.
_Yo recuerdo que hace no mucho tiempo, cuando además te conocí, uno de los temas interesantes era enseñar a programar, que así como se enseñaba a leer en el siglo XXI, en la segunda década del siglo XXI, había que enseñar a programar.
_Y hoy vemos que la mayor empresa de programación de Argentina, que es Globant, frente a la aparición de la inteligencia artificial despide mil empleados en todo el mundo, porque la inteligencia artificial parece que puede programar sola. Me gustaría entender qué cambió respecto de la importancia de saber programar y si finalmente la inteligencia artificial hace que un conocimiento que antes tenía un valor enorme pase a no tenerlo.
Yo creo que el problema es qué entendemos hoy en día por programar, por la tarea de la programación. Que quizás hace un par de años el valor agregado era escribir mejor código, y hoy en día esa tarea puntual de escribir código la IA la hace mucho mejor, mucho más rápido y sin quejarse.
Entonces, empresas como Globant, ya están viendo que no alcanza con la tarea per se de saber código, entonces acá lo que se agrega más valor hoy en día es entender el marco ético, el marco creativo y entender los sesgos que tiene la inteligencia artificial, y por eso estamos viendo estas cosas.
Entonces, yo creo que en 2025 enseñar a programar no es solamente enseñar a escribir líneas de código, sino es enseñar a leer el mundo. Y acá vuelvo a esto de no convertirnos en analfabetos algorítmicos. Y tampoco convertirnos en, como señalan Mariano Sigman y Santiago Bilinkis, en sedentarios cognitivamente. En delegar este punto perdiendo las capacidades y perdiendo la atención. Es decidir cuándo usar la tecnología sin generar un entumecimiento.
_¿Y qué significa eso desde el punto de vista de no ser analfabetos algorítmicamente? Es decir, ¿qué es lo que tendría que hacer la sociedad para no ser analfabeto algorítmicamente?
_Me parece que tomar conciencia de cómo estos sistemas empiezan a influir en la forma en la cual nos vinculamos, en la forma en las cuales se gestiona el poder. Vemos, por ejemplo, vinculado a la condena de Cristina Fernández de Kirchner, que está todo amplificado algorítmicamente. La demonización del adversario, la narrativa libertaria.
Entonces, yo siento que la polarización no se genera sola, el algoritmo la refuerza. Eso es como un caso puntual. Los algoritmos hoy en día dirigen las escenas políticas, escenas económicas, las narrativas sociales. Entonces, para no convertirnos en analfabetos algorítmicos tenemos que, de alguna forma, tomar conciencia de cómo funcionan todos estos sistemas que operan por detrás, y no caer también en una colonización algorítmica.
Porque estamos viviendo una guerra por nuestra atención tan grande que antes te conquistaban territorios y hoy te conquistan tu atención. Hay algo, Jorge, que pasa y es que los algoritmos son muy apetecibles, los algoritmos son muy perfectos, son muy fáciles de digerir.
El tema es qué estamos cediendo por esa facilidad. Por esa forma. Son muy gustosos ahora. Pero, ¿qué estamos cediendo al respecto? ¿Estamos encerrándonos cada vez más? ¿Estamos perdiendo la libertad? ¿Estamos afectando hoy en día la democracia en ese sentido?
_Entonces, otra vez, hay un tema de responsabilidad, de regulación, de alfabetización y la necesidad de comprender que estos sistemas son infraestructuras de poder, sin lugar a dudas.
_¿Sabes qué me viene a la mente? Para manejar un auto, una persona necesita saber cómo funciona. Y la revolución industrial, que ponía en funcionamiento nuevas maneras de producir, no requería que los gerentes de las plantas de producción supiesen exactamente cómo funcionaba el interior de la máquina.
_¿Qué es lo que deben conocer las personas? Porque no todas tendrían que estar estudiando computación, digitalización. En líneas generales sería como que para ser alfabetizado no tendría que ser necesario ser un experto. ¿Cuál es el nivel o grado de conocimiento que es necesario para que una sociedad funcione y la gente se dedique a muchas otras cosas además de construir algoritmos?
_Sí, yo creo que el primer paso, que va a ser un poco polémico, es volver a recuperar las cosas humanas, es volver a recuperar el pensamiento crítico y no dejarnos llevar por esta facilidad o por esto tan hoy en día.No es que necesitamos un registro algorítmico, pero tenemos que tener cierto nivel básico.
Yo creo que desde la escuela primaria hay que entender cómo operan, cómo opera, qué es el bienestar digital. Yo hablo mucho del concepto de dieta digital. Nos preocupamos de cómo entrenamos, de qué comemos, de qué dejamos de comer, pero no hay conciencia de cómo nos estamos alimentando en el ámbito digital.
Entonces, hay algo acá: lo mínimo que tendríamos que saber todos es que los algoritmos no son neutrales, que tienen sesgos, que tienen ideologías, que editan lo que vemos y lo que no entendemos no lo podemos controlar.
Entonces, yo siento que si no sabemos cómo funciona mínimamente vivimos en piloto automático, y así es como hoy en día le das las llaves de un auto a cualquiera. Entonces, yo no creo que deberíamos darle nuestras llaves de la percepción y atención a un sistema que no entendemos.
Nadie está diciendo que todos tengamos que ser programadores o expertos en inteligencia artificial, pero hay que entender que hay un motor, que hay frenos, que si no le pones nafta no anda, y que si no respetas las señales te estrellas, podés matarte o podés matar al de al lado.
_Traducinos eso, ¿cuál es el freno, la nafta, el volante? ¿Cuál sería el equivalente del nivel de conciencia que estás hablando? Me parece que, más que alfabetizaciones, hablás de tomar conciencia. ¿Cuál es el nivel de conciencia necesario para ser un ciudadano actualizado en la tercera década del siglo XXI?
_Sí, me gusta mucho la metáfora. Yo siento que el freno que tenemos es nuestro pensamiento crítico, porque si no frenamos, seguimos de largo sin cuestionar lo que vemos en los algoritmos. El freno es parar, preguntarnos: ¿por qué nos está mostrando esto? ¿Quién lo eligió?
La nafta es nuestra atención. El sistema funciona alimentándose de nuestro tiempo, de nuestros clics, de nuestras búsquedas, de nuestras emociones y sin nuestra atención el algoritmo, de alguna forma, se queda parado.
La atención es el nuevo combustible del siglo XXI. Y yo siento que el volante, o el manubrio que tenemos, es nuestra capacidad de decisión un poco informada. Si entendemos mínimamente cómo funcionan podemos orientar hacia dónde va, qué estamos consumiendo, a quién seguimos, qué noticias nos llegan.
Con el conflicto ahora de Irán e Israel hemos visto cómo usaron el gobierno iraní y múltiples cuentas también videos de videojuegos como si fuesen explosiones en Israel. Entonces, si no, el algoritmo nos va a llevar por el carril que más le conviene.
Entonces, en este esquema tenemos que entender esto: frenar, ponerle nafta y poner un volante. Y si no entendés estos tres elementos no manejás el auto y nos maneja solo. Estamos en un auto autónomo.
Escucho decir que el poder que significa tener el monopolio del mayor buscador del mundo, como por ejemplo en el caso de Google, es que te aparece lo que Google desea con sus algoritmos que aparezca, el poder de curaduría, podemos decir, respecto de lo que antes se llamaba en la teoría de la comunicación el frame, el marco.
Entonces, la ventana de lo que vos vas a ver está amenazada porque la inteligencia artificial va a ser que en un tiempo no muy extenso las personas, en lugar de usar un buscador, le pregunten directamente a la inteligencia artificial y sea la inteligencia artificial la que selecciona, de todo el contenido que hay en la web, aquello que va a mostrar en función de la pregunta que la persona realiza.
_¿Es plausible la sospecha de que el poder de Google y de los buscadores va a reducirse porque la inteligencia artificial va a cumplir ese papel?
_A ver, yo siento que lo que puede llegar a pasar en un futuro es que haya sesgos pagos, o haya una obligatoriedad de aclarar cuando un sesgo es pago. Si yo le pregunto hoy en día a ChatGPT “¿cuál es la mejor cafetería del barrio de Barracas de la Ciudad Autónoma de Buenos Aires?”, me lo va a hacer por un tema estadístico, por un tema también de probabilidad, pero quizás en un futuro haya un modelo publicitario que yo le pueda pagar a ChatGPT para que diga: “Che, cuando pregunten esto, recomendame esto.” Como hoy en día pasa con Google.
_El famoso patrocinado…
_Claro, entonces, quizás haya sesgos patrocinados. Google siempre tuvo en este siglo XXI el poder de filtro, te mostraba una versión del mundo ordenada según sus propios criterios. Entonces, yo creo que por un lado el poder de Google se reduce como buscador clásico.
Pero como dueño de una inteligencia artificial, pensemos en Gemini, en los modelos que están integrando, el poder no desaparece. Yo creo que al revés, se transforma y se concentra aún mucho más.
_¿Pero se concentra en otros?
_No, en los mismos. Porque los grupos de poder son los mismos. Y acá hay un concepto que es el de colonización algorítmica. Porque al fin y al cabo son muy pocas compañías las que están jugando con esto.
El buscador al menos te mostraba las cartas, nos mostraba las opciones, aunque buscábamos las primeras páginas, la inteligencia artificial ya te da la respuesta teórica directamente. Y si no entendés cómo llegó esa respuesta, uno cree que es la única verdad. Y yo creo que ese es el verdadero riesgo del nuevo poder que estamos viviendo.
_Entonces, vos decis que va a ser peor que Google…
_Si, yo creo que Google se va a concentrar aún mucho más con esto de la IA, y ahí corremos un riesgo. De lo que yo entiendo como patrones invisibles. Uno cree que está siendo libre, pero sigue una coreografía algorítmica constante.
Y me parece que eso va a empezar a afectar un montón de cosas de las que estamos hablando. Hace muy pocos días, el MIT sacó un informe que analiza, en un grupo pequeño de estudio de más o menos 60 personas, el uso de ChatGPT.
Y se pregunta básicamente si esta tecnología nos está volviendo “más tontos” entre personas de 18 a 40 años. Y el estudio demostró que el rendimiento es inferior a nivel neuronal, a nivel lingüístico, a nivel de comportamiento, y que ese grupo tenía menos originalidad y demostraba un comportamiento más vago a la hora de redactar textos.
_Entonces, en una sociedad que nos exige cada vez más productividad, la inteligencia artificial pareciera estar quemándonos el cerebro.
Nosotros dedicamos la apertura de hoy a Rafael Grossi, el presidente del organismo de las Naciones Unidas que controla la proliferación de armas nucleares y el uso pacífico de la energía nuclear, sobre la base del tratado de no proliferación de armas nucleares que ya cumple 50 años, donde podríamos decir cinco países que integran el Consejo de Seguridad de las Naciones Unidas tienen bombas nucleares y no quieren que nadie más las tenga.
_¿Puedo hacer un paralelismo entre el acceso a poder fabricar bombas atómicas hace 50 años y el acceso a poder fabricar inteligencia artificial, que solo un puñado de países va a ser los que tengan la capacidad de desarrollar inteligencia artificial en alta escala, y que finalmente una especie de consejo de seguridad de la inteligencia artificial termine siendo necesario en un futuro no tan distante?
_Sí, a ver, es un paralelismo incómodo pero real, Jorge. El poder de desarrollar inteligencia artificial avanzada hoy se parece muchísimo al acceso a las armas nucleares en el siglo XX: son muy pocos actores, y me refiero a Estados, a empresas que tienen la capacidad real técnica y económica para crear esos sistemas. Y el impacto potencial no es solo económico, es geopolítico, social, incluso me atrevo a decir existencial.
En épocas de la Segunda Guerra Mundial, tener la bomba era tener poder disuasivo, poder real. Hoy, tener inteligencia artificial es tener poder para regular mercados, percepciones, incluso conflictos. Por eso ya se habla de tratados de inteligencia artificial, de regulación global, igual que se buscó limitar la proliferación nuclear.
La diferencia es que las bombas atómicas son tangibles, son visibles, son controlables en teoría, y la inteligencia artificial hoy en día se infiltra o se mete en el día a día, en teléfonos, en decisiones, y su capacidad de daño o de influencia es mucho más difícil de detectar a tiempo.
Entonces, yo siento que con las armas nucleares aprendimos muy tarde que el poder sin control es suicida, y yo siento que con la inteligencia artificial o entendemos eso rápido o el próximo desequilibrio global no va a ser con una bomba, va a ser con algoritmos.
No quiero convertirme en apocalíptico en ese sentido, pero por eso también hago la bajada de esto de ¿quién decide por nosotros? en este siglo XXI.
_¿Quiénes tienen capacidad de fabricar inteligencia artificial en alta escala? Claude Anthropic, ChatGPT, Deep Seek que es China. ¿Quién más?
A ver, está Estados Unidos con el sector privado y estatal. OpenAI con Microsoft detrás. Google, el grupo Alphabet. Anthropic con el modelo Claude. Todo lo que es el conglomerado de Zuckerberg con Meta y con Llama.
Después tenemos, en la capacidad técnica, empresas como Nvidia en infraestructura y todo lo que es chips.Después tenemos a China, con compañías como Tencent, como Baidu, como Alibaba, con modelos propios y apoyo y regulación estatal muy agresiva.
China hoy en día es la gran competencia geopolítica en inteligencia artificial. Hoy en día la gran mayoría de las patentes vinculadas a modelos de lenguaje son chinos, es decir, más del 50% son de origen chino.
Después tenemos a la Unión Europea. Europa no compite en modelos gigantes a la par de Estados Unidos o de China, sí lidera en cuanto a regulación y algunas universidades. Después tenemos algunos actores incipientes que son interesantes para observar, como India, Emiratos Árabes o Israel, con mucha IA en defensa y ciberseguridad, pero no en modelos abiertos de uso masivo.
_¿Qué otros modelos de uso masivo hay?
_Bueno, Deep Seek es China. Meta, los modelos de LLaMA 2 y LLaMA 3 son de código abierto. Después tenemos el modelo Mistral de Francia, que es un modelo abierto muy eficiente, entre los más avanzados de open source.
Tenemos un modelo de Emiratos Árabes que se llama Falcon. Hay algunos más. El equipo de Stable Diffusion de creación de imágenes también creó un modelo abierto.Hoy hay muchos modelos con impacto masivo. La paradoja es que, aunque son abiertos, el acceso real sigue dependiendo de infraestructura y recursos concretos.
Así que el poder sigue siendo concentrado. El código está fuera y eso abre, de alguna forma, un escenario geopolítico que es nuevo en ese sentido. Entonces, volviendo a la comparación con las armas nucleares, los que no están en ese club, en ese grupo privilegiado, terminan jugando en la cancha que esos actores diseñan.
Ese club es chico: Estados Unidos, China, en menor medida Europa, y algunos modelos interesantes en Francia, India, Israel. Por eso la analogía con las armas nucleares no es incómoda, pero es real.
*Joan Cwaik es autor, profesor, divulgador especializado en tecnologías emergentes y en cultura digital. Es profesor de la Escuela de Negocios de la Universidad de San Andrés, tiene un máster en la IAE Business School y estudios tanto en la UADE, en la UBA como en USDA. En 2018 integró la delegación argentina del G20 y es director de marketing para Latinoamérica de Maytronics, y columnista de Perfil.