Jueves 4 de Diciembre de 2025

Hoy es Jueves 4 de Diciembre de 2025 y son las 19:12 ULTIMOS TITULOS:

04/12/2025

Un experto en seguridad informática advirtió sobre el uso de la IA: “Vamos a sufrir una indigestión tecnológica”

Fuente: telam

Julio López habló sobre las falsas promesas de la inteligencia artificial, su impacto en el empleo y la necesidad de distinguir entre avances reales y expectativas infundadas. Y sostuvo que los próximos modelos podrán interpretar y manipular emociones humanas, lo que podría llevar a una sociedad menos intuitiva y más dependiente de las decisiones automatizadas

>“La inteligencia artificial es una tecnología bisagra, pero detrás de eso se construye mucho humo”, fue la tajante definición de Julio López, especialista en informática y ciberseguridad.

A lo largo de la conversación, López buscó desmitificar el funcionamiento de la inteligencia artificial (IA). Sostuvo que su base es “la predicción de la próxima palabra”, producto de procesar y analizar el texto acumulado en el mundo: “Agarraron todo el texto del mundo y le hicieron la métrica para predecir cuál es la palabra que sigue. No hay más nada”.

La visión crítica de López también abordó la incidencia de la IA en el saber y el aprendizaje humano. “Tiende a aplanar, tiende a mediocrizar”, afirmó, al explicar que la tecnología pone en un mismo plano a expertos y legos. “Todos nos vamos a igualar en el conocimiento, en lo que podamos ser asistidos por inteligencia artificial. Al que sabe, va a tener que ser más brillante”, sostuvo, y remarcó la necesidad de subir la vara para quienes ya dominan ciertos campos.

Apoyándose en la experiencia de otras plataformas de streaming y tecnología, el especialista subrayó la tendencia al aumento de precios y la consolidación de la IA como un gasto inevitable en el futuro cotidiano.

En otro tramo de la entrevista, el experto anticipó el próximo salto de la tecnología: “Los próximos modelos de IA van a estar nutridos con nuestros sentimientos”. E imaginó escenarios en los que la IA podrá interpretar y manipular emociones humanas para generar respuestas que impacten en el plano afectivo. “La manipulación de los sentimientos va a ser parte de la estadística predictiva”, advirtió. Este fenómeno, según el especialista, podría llevar incluso a la pérdida de la intuición humana y a una vida “muy aburrida”.

Finalmente, alertó sobre el error de relegar al ser humano al rol de auditor de las decisiones tomadas por la IA: “El ser humano, por el sometimiento de la máquina, tiende a aceptar lo que la máquina propone. No hay que dejar que pase esto de que el ser humano audita lo que sugiere la inteligencia artificial”.

Y relató un experimento en Japón, donde la confianza ciega en un robot llevó a personas a seguir instrucciones erróneas aun cuando detectaban fallos en el comportamiento de la máquina. “Pusieron un robot a guiar a la gente frente a un escenario de incendio en un edificio. Cuando el robot lo presentaron a la gente, le dijeron ´este es el robot que lo va a sacar´“. Y agregó: ”Y, a propósito, el robot empezaba a chocar contra las paredes. La gente miraba que el robot era medio zonzo y cuando van al simulacro de incendio, aún teniendo la puerta que decía salida de emergencia ahí, el robot lo llevaba para otro lado, la gente lo siguió“, advirtió.

Infobae en Vivo te acompaña cada día en YouTube con entrevistas, análisis y la información más destacada, en un formato cercano y dinámico.

• De 18 a 21: Jesica Bossi, Diego Iglesias, Virginia Porcella y Federico Mayol.

Fuente: telam

Compartir

Comentarios

Aun no hay comentarios, sé el primero en escribir uno!