21/06/2025
El mayor experimento social de la historia: Harari desvela los riesgos de la revolución de la inteligencia artificial
Fuente: telam
El autor israelí advierte que la proliferación de agentes digitales plantea desafíos inéditos y que solo una sociedad basada en la confianza podrá orientar el desarrollo de la IA hacia el bien común
>“La Harari instó a los líderes empresariales y sociales a asumir la responsabilidad de “educar” a la IA, advirtiendo que su desarrollo podría transformar radicalmente la economía, la religión y la sociedad.
Durante la conversación moderada por Poppy Harlow para Wall Street Journal, Harari explicó que la IA representa una ruptura fundamental respecto a todas las invenciones tecnológicas previas. “No es una herramienta como todas las invenciones humanas anteriores. Es un agente, en el sentido de que puede tomar decisiones independientemente de nosotros. Puede inventar nuevas ideas, aprender y cambiar por sí misma”, afirmó el historiador.“Una imprenta no puede escribir libros por sí sola ni decidir cuáles imprimir. Una bomba atómica no puede inventar la siguiente generación de armas ni decidir a quién atacar. Un arma basada en IA puede decidir por sí misma qué objetivo atacar y diseñar la próxima generación de armas”, detalló.
El historiador comparó el proceso de desarrollo de la IA con la educación de un niño. “Podemos pensar en la IA como un bebé o un niño, y podemos educarlo lo mejor posible, pero siempre nos sorprenderá, para bien o para mal”, señaló Harari.
Y subrayó que, al igual que en la educación infantil, lo que más influye en la formación de la IA no son las instrucciones explícitas, sino el ejemplo y el comportamiento de quienes la rodean.Harari enfatizó la enorme responsabilidad que recae sobre los líderes empresariales y sociales, ya que la IA aprende observando el mundo y replicando los patrones de conducta que detecta, especialmente los de las figuras más influyentes.
Uno de los grandes debates actuales gira en torno a la “alineación” de la IA, es decir, cómo garantizar que estos nuevos agentes actúen en beneficio de la humanidad y se mantengan alineados con los objetivos humanos. El historiador y escritor israelí señaló que, aunque existen numerosos esfuerzos para programar principios éticos y objetivos en la IA, este enfoque enfrenta dos problemas fundamentales.En segundo lugar, incluso si se logra educar a la IA con los mejores valores, su independencia puede llevarla a tomar decisiones inesperadas, algunas de las cuales podrían resultar preocupantes o incluso peligrosas.
El historiador también reflexionó sobre la tendencia humana a acumular poder sin traducirlo en sabiduría o felicidad. “La mayor parte de la información no es verdad; hay una confusión entre información y verdad”, sostuvo Harari en la entrevista con WSJ.Harari argumentó que la acumulación de poder no ha ido acompañada de un aumento proporcional en la felicidad o el conocimiento. “Podemos volar a la Luna, dividir el átomo, pero no parecemos ser significativamente más felices que en la Edad de Piedra”, observó. Añadió que la inteligencia no garantiza la verdad ni la sabiduría, y que los seres humanos, a pesar de ser la especie más inteligente, también son los más propensos a las ilusiones y creencias autodestructivas.
En cuanto al impacto sectorial, Harari anticipó que la IA transformará de manera profunda ámbitos como las finanzas y la religión. “Uno de los primeros campos donde veremos grandes cambios es el financiero. La IA va a tomar el control del A diferencia de los vehículos autónomos, que deben lidiar con la complejidad del mundo físico, la IA puede dominar el sector financiero al operar únicamente con información.El historiador mencionó que ya existen proyectos para desarrollar IA religiosas que puedan complementar o incluso reemplazar a los líderes religiosos humanos, especialmente en religiones donde la autoridad reside en los textos.
Uno de los escenarios que más preocupa a Harari es la posible aparición de una >“No creo en el determinismo histórico o tecnológico. La misma tecnología puede usarse para construir regímenes totalitarios o democracias liberales”, afirmó.
El principal obstáculo, según Harari, es la dinámica de competencia entre empresas y países líderes en IA, que se ven atrapados en una especie de “carrera armamentista”. Esta situación dificulta la adopción de medidas de seguridad y precaución, ya que existe el temor de que cualquier desaceleración permita a otros actores tomar la delantera.
Harari identificó el colapso de la confianza y la cooperación humana como el problema central que debe resolverse antes de esperar que la IA aporte soluciones. “El principal problema es la confianza y la cooperación humana; sin resolver esto, no habrá IA confiable”, advirtió.Harari instó a invertir primero en la reconstrucción de la confianza entre personas, países y sociedades, como condición indispensable para desarrollar una IA que actúe en beneficio de todos. “Demasiadas personas piensan: ‘Primero resolvamos cómo desarrollar la IA, y luego esto resolverá el problema de la confianza humana’. No funcionará. Hay que invertir el orden de prioridades”, afirmó.
En la parte final de la entrevista, Harari abordó la cuestión de la multiplicidad de IA y la imposibilidad de prever sus interacciones. “No será una sola gran IA. Hablamos de millones o miles de millones de nuevos agentes con diferentes características, producidos por distintas empresas y países”, explicó. Esta proliferación generará competencia en todos los ámbitos, desde la religión hasta las finanzas, y plantea un escenario sin precedentes en la historia humana.La entrevista con WSJ recogió la analogía de Harari sobre la IA como >Harari concluyó que la humanidad se encuentra ante el mayor experimento social de la historia, sin precedentes ni capacidad de simulación en laboratorio. “Estamos ante el mayor experimento social de la historia, y nadie sabe cómo se desarrollará”, advirtió, reiterando la urgencia de priorizar la confianza y la cooperación humana como base para enfrentar el desafío de la inteligencia artificial.Fuente: telam
Compartir
Comentarios
Aun no hay comentarios, sé el primero en escribir uno!