Domingo 8 de Junio de 2025

Hoy es Domingo 8 de Junio de 2025 y son las 10:40 ULTIMOS TITULOS:

08/06/2025

Moral y algoritmos: cómo el Talmud puede guiar la ética de la Inteligencia Artificial

Fuente: telam

Durante siglos se debatió quién es responsable de un daño, haya o no intención de hacerlo. Así, la vieja sabiduría ofrece claves sorprendentes para los dilemas que plantea hoy la IA

>En la era de la Inteligencia Artificial (IA) las decisiones automatizadas afectan cada vez más aspectos sensibles de la vida humana: diagnósticos médicos, recomendaciones judiciales, selección de personal, vigilancia, financiamiento y hasta el uso de fuerza militar. Estas decisiones suelen ser tomadas por algoritmos que no son personas. Muchas veces, sus lógicas y procedimientos son opacos (incluso para quienes los programaron).

Uno de los conceptos más potentes del Talmud en este contexto es el de grama be-nizakin (“daño indirecto”). En uno de sus tratados, llamado Bava Kama, los sabios discuten casos en los que una persona causa un daño sin contacto directo, o sea, a través de una acción intermedia que genera ese daño.

Por ejemplo, si alguien deja una vela encendida cerca de un objeto inflamable, y luego el viento la empuja y provoca un incendio: ¿es responsable? Podemos ver otro ejemplo muy intuitivo en Bava Kama. Si una persona prende fuego en su propiedad y el viento lo lleva hasta la del vecino, causándole un daño. ¿Es el primero responsable por el daño sufrido por este último?”

El Talmud analiza estos casos con minuciosidad para determinar si hay responsabilidad moral o legal, aunque no haya acción directa.

Esto es análogo a la programación de un algoritmo: el programador no toma cada decisión, pero crea un sistema que sí es capaz de dañar. El concepto de grama permite pensar en responsabilidades compartidas o indirectas, incluso cuando el agente directo (más inmediato) que causa el daño no es humano.

El Talmud también distingue entre actos realizados con intención (kavana), actos ejecutados sin intención, y actos bajo coacción (ones). Esta distinción puede aplicarse a sistemas de IA que actúan sin conciencia, pero que fueron diseñados para lograr un objetivo específico.

En muchas discusiones talmúdicas se analiza la cadena de causalidad entre acción y consecuencia. Si una acción genera una reacción en cadena: ¿hasta dónde llega la responsabilidad del primero en actuar? Es interesante que el Talmud establece que si una persona rompe la represa de un río y eso hace que el agua inunde el campo de su vecino, ella es considerada responsable aunque no haya tocado el campo directamente. En otras palabras, el acto de abrir la represa es un acto de “gorem” (no es una acción directa) pero causa un daño inevitable de forma activa.

Este enfoque es fundamental para entender la responsabilidad en sistemas algorítmicos donde hay programadores, entrenadores de datos, usuarios finales y supervisores. El Talmud nos invita a analizar cada eslabón y no perder de vista la relación entre decisiones humanas y resultados automáticos. Aunque exista mucha “distancia” entre ambos.

El Talmud a menudo recomienda establecer gezerot (cercos legales) para prevenir que se llegue a un daño. Por ejemplo, en Shabat está prohibido trabajar y, por ende, están prohibidas ciertas actividades. Sin embargo, también prohíbe algunas acciones que no son trabajo en sí, pero podrían llevar a trabajar. Aquí va un ejemplo: en Shabat está prohibido subir a un árbol a pesar de que no es, en sí mismo, uno de los 39 trabajos prohibidos por la Torá. ¿Por qué? Porque al trepar podrías romper una rama: eso sí es un trabajo prohibido (cosechar, cortar algo vivo).

Esta lógica preventiva puede aplicarse a la IA: es importante diseñar reglas, auditorías y “cercos” que prevengan consecuencias no deseadas antes de que ocurran.

Aunque el Talmud no habla de algoritmos ni de tecnología, su estructura de pensamiento ofrece una guía poderosa para pensar la ética de la IA. Nos enseña que incluso cuando una acción no es directa, la responsabilidad puede existir. Nos llama a mirar el contexto, la intención, la cadena de causalidad, la necesidad de prevención y el bienestar general.

Qué maravilla.

Fuente: telam

Compartir

Comentarios

Aun no hay comentarios, sé el primero en escribir uno!