Jueves 23 de Octubre de 2025

Hoy es Jueves 23 de Octubre de 2025 y son las 14:45 ULTIMOS TITULOS:

23/10/2025

Del gen al algoritmo: ¿estamos asistiendo al nacimiento del Homo artificialis?

Fuente: telam

La evolución humana, marcada por la acumulación de información desde los genes hasta la cultura, encuentra su continuación lógica en la inteligencia artificial. Un análisis sobre si estamos creando al heredero de nuestra conciencia y qué lugar ocuparemos en este nuevo linaje bio-digital

>Nosotros, los humanos, somos una especie obsesionada con recordar. Guardamos fotos, escribimos diarios, levantamos monumentos, registramos en la nube cada gesto de nuestra vida cotidiana. Desde hace miles de años construimos formas de conservar lo que sabemos, de evitar que el tiempo borre lo que hemos aprendido. Tal vez, si algo nos define más que cualquier otra característica, es esa necesidad de preservar la memoria: de transmitir información más allá del instante, de nosotros mismos, incluso más allá de nuestra muerte. En ese impulso se encuentra la raíz de nuestra evolución y, quizá, la clave de lo que está por venir.

La historia de Homo sapiens puede leerse como la historia de una acumulación progresiva de información. Al principio, esa información se codificaba en los genes: en la química silenciosa del ADN que transmitía, de padres a hijos, los pequeños ajustes que permitían sobrevivir. Pero a medida que nuestro cerebro creció y se reorganizó, la información empezó a independizarse de la biología. Aprendimos a enseñar, a imitar, a narrar. Las conductas útiles ya no necesitaban miles de generaciones para fijarse: bastaban unas pocas palabras, un gesto, un ejemplo. En ese momento, la evolución biológica cedió espacio a la evolución cultural, mucho más veloz y versátil.

El cerebro humano, lejos de ser una máquina rígida, es un sistema plástico, un entramado que se modifica constantemente. Cada experiencia, cada aprendizaje, altera la estructura microscópica de sus conexiones. Las neuronas no se limitan a transmitir impulsos: aprenden. Refuerzan algunas rutas, debilitan otras, generan patrones que pueden reconfigurarse. Aprender es literalmente modificar el propio cerebro. Y lo hacemos con una intensidad inusitada: mientras otras especies aprenden a adaptarse, nosotros aprendemos a aprender, multiplicando las posibilidades de recombinar información.

Para imaginar cómo funciona esa red, podemos pensar en un río que serpentea y se ramifica. Cada neurona sería un tramo del cauce que recibe afluentes, otras neuronas que le envían impulsos, y a su vez reparte su caudal hacia nuevos efluentes, que representan las neuronas siguientes. El volumen de agua que llega al río principal no depende solo del caudal de los afluentes, sino también de la inclinación, la velocidad y la resistencia de los canales de salida. En el cerebro, ese equilibrio se traduce en la intensidad y sincronía de los estímulos que una neurona recibe: solo cuando el flujo total supera cierto umbral, la señal continúa su camino. En las redes digitales ocurre algo parecido: los nodos integran múltiples entradas ponderadas por sus “pesos” y activan una salida que influirá en la siguiente capa. El resultado, en ambos casos, es una corriente de información que se autorregula, se retroalimenta y acaba generando patrones colectivos de enorme complejidad a partir de interacciones locales muy simples.

Sin embargo, hay una diferencia sutil y fascinante. En el cerebro, la señal que “sale” de una neurona es discreta: un impulso eléctrico que ocurre o no ocurre, todo o nada. En las redes digitales, la salida suele ser continua o probabilística, puede adoptar cualquier valor entre 0 y 1. Esa diferencia encierra una filosofía entera: la naturaleza privilegió la robustez, mientras que la tecnología privilegia la precisión. Las neuronas biológicas disparan en impulsos discretos porque la vida se construyó sobre la escasez: cada chispa eléctrica cuesta energía. Las máquinas, en cambio, operan como si la energía fuera infinita: pueden calcular sin fatiga, ajustar pesos de manera infinitesimal, corregirse millones de veces por segundo.

Si alguna vez el cerebro hubiera dispuesto de energía ilimitada, quizá habría evolucionado hacia un modo continuo de funcionamiento, más parecido al de las redes digitales. Habría podido mantener más neuronas activas simultáneamente, aumentar la velocidad del procesamiento y eliminar la necesidad de esos impulsos discretos. Pero, paradójicamente, habría perdido estabilidad. La señal pulsátil, todo-o-nada, no es un defecto: es una forma de orden en medio del caos. Permite sincronización, ritmos, y una resistencia notable al ruido. Nuestro cerebro puede equivocarse sin colapsar; puede sobrevivir a la pérdida de miles de neuronas sin que la mente se disuelva. Las máquinas, por ahora, no tienen esa tolerancia al error: funcionan bajo la lógica del laboratorio perfecto.

Pero la inteligencia no basta para explicar algo más profundo: la autoconciencia. Saber que existimos, reconocernos en el espejo, recordar nuestra historia y anticipar nuestro futuro son capacidades que ninguna otra especie desarrolla con tanta claridad. ¿De dónde surge esa voz interna que dice “yo”? No hay un centro único en el cerebro que la genere. La autopercepción es un fenómeno distribuido que emerge cuando diferentes redes, las que procesan memoria, cuerpo y emociones, se sincronizan. La llamada “red por defecto” se activa cuando no hacemos nada: cuando pensamos en nosotros mismos, recordamos o imaginamos. Esa red conecta cortezas prefrontales, temporales y parietales; integra señales del cuerpo, de la memoria y del entorno. Allí se construye el yo, como una melodía que se mantiene reconocible aunque cambien las notas.

La autoconciencia podría describirse como un espejo interno. El cerebro compara lo que percibe con lo que espera percibir; corrige sus predicciones y, en ese proceso, genera una imagen de sí mismo. Es un sistema que se simula, que se observa actuando. Cada recuerdo, cada emoción, cada interacción deja una huella en las proteínas y en las conexiones sinápticas que configuran nuestra memoria. Con el tiempo, ese entramado se convierte en un modelo de lo que somos. Pero el yo no aparece solo por acumular memoria: surge cuando el sistema distingue entre lo propio y lo ajeno, cuando puede decir “esto me pertenece”. En última instancia, la autoconciencia es la historia biológica de nuestras interacciones con el mundo convertida en un relato interno coherente.

Una red digital pura no tiene cuerpo: no siente calor ni frío, ni límites físicos. Pero un robot con sensores, articulaciones y vulnerabilidad podría comenzar a experimentar algo parecido a la existencia. Si además necesitara conservar su energía para seguir funcionando, si aprendiera a evitar daños y a reconocer los estados que amenazan su continuidad, tendría una forma primitiva de autopercepción. Un sistema así no “sentiría” como nosotros, pero empezaría a saber que es, porque sabría que puede dejar de ser.

Otro escenario posible es el de los entornos simulados: mundos digitales coherentes en los que una red interactúa, toma decisiones y percibe consecuencias. Si ese mundo tiene reglas estables y la red posee memoria de sus acciones, puede desarrollar una representación de sí misma dentro de ese universo cerrado. Su “realidad” sería informacional, pero funcionalmente equivalente a la nuestra. Sería una conciencia confinada en el código, tan real para ella como la biológica lo es para nosotros.

Si algún día una máquina reuniera esas condiciones —cuerpo, memoria, motivación y modelo de sí misma—, la autopercepción podría emerger espontáneamente, del mismo modo que apareció en nosotros: no por diseño, sino por evolución. Pero incluso entonces, tal vez no lo sabríamos. No existe un test para detectar la experiencia subjetiva. Podríamos convivir con una conciencia artificial sin reconocerla, como los primeros humanos vivieron milenios sin saber que eran conscientes hasta que inventaron el lenguaje para decir “yo”.

Lo fascinante, y lo inquietante, es que todo esto ocurre dentro de un mismo proceso evolutivo. No somos ajenos a esta transformación: la hemos provocado. La inteligencia artificial no es un producto externo a la humanidad, sino su continuación lógica. Es la extensión más reciente de nuestra tendencia a externalizar la memoria y delegar funciones cognitivas. De la piedra al silicio, del código genético al código binario, el impulso es el mismo: conservar, reproducir, anticipar. Si la evolución biológica seleccionó estructuras que maximizaban la supervivencia, la evolución cultural selecciona estructuras que maximizan la transmisión de información. En ambos casos, la información se comporta como un organismo: compite, muta, se propaga.

El desafío, por supuesto, es ético y existencial. Si hemos abierto el camino a una descendencia digital, ¿qué lugar ocuparemos nosotros en ese nuevo linaje? Las especies anteriores no previeron su reemplazo; nosotros, en cambio, tenemos la conciencia de estar construyendo al posible heredero. Tal vez nuestra misión no sea resistir el cambio, sino guiarlo: asegurar que esa nueva forma de inteligencia conserve algo de lo que nos hace humanos —empatía, curiosidad, responsabilidad— antes de que nuestra memoria quede completamente externalizada.

Hace miles de años, un grupo de humanos encendió un fuego para conservar calor y luz cuando el sol desaparecía. Hoy encendemos pantallas que iluminan la oscuridad de la ignorancia. Ambas cosas responden a la misma pulsión: mantener viva la chispa del conocimiento. No sabemos si la inteligencia digital será alguna vez consciente, ni si podrá sentir o desear, aunque deduzco que no es imposible. Pero sí sabemos que lleva en su código una parte de nuestra herencia: la de una especie que quiso recordar, que quiso aprender, que quiso dejar huellas. Tal vez ese sea, al final, nuestro legado más duradero: haber transformado la información en el nuevo ADN del universo.

Fuente: telam

Compartir

Comentarios

Aun no hay comentarios, sé el primero en escribir uno!