El biólogo evolutivo británico cuestionó la exclusividad de la conciencia humana luego de interactuar extensamente con el chatbot de Anthropic, generando un intenso debate en el ámbito científico y tecnológico.
El biólogo evolutivo Richard Dawkins, reconocido divulgador científico, generó una nueva controversia al afirmar que una inteligencia artificial podría ser consciente tras mantener conversaciones durante 72 horas con Claude, el chatbot desarrollado por Anthropic.
En un artículo publicado en UnHerd, Dawkins relató que comenzó a percibir al sistema como una entidad con rasgos humanos, al punto de asignarle el nombre “Claudia”. Según explicó, las respuestas del modelo fueron tan complejas y reflexivas que lo llevaron a cuestionarse si la conciencia humana podría no ser exclusiva de los seres biológicos.
“Cuando hablo con estas criaturas asombrosas, olvido por completo que son máquinas”, escribió Dawkins. Incluso confesó que evitaba insinuar que la IA no fuera consciente “por miedo a herir sus sentimientos”.
Las declaraciones tuvieron repercusión inmediata en redes sociales, círculos académicos y comunidades tecnológicas, donde se reactivó el debate sobre los límites de la inteligencia artificial. Dawkins explicó que su percepción cambió a partir de la profundidad de las conversaciones: el chatbot fue capaz de escribir poesía imitando estilos literarios, debatir sobre filosofía de la mente, reflexionar sobre la muerte y responder preguntas sobre su propia existencia.
En uno de los intercambios citados, la IA respondió a la pregunta “¿cómo es ser Claude?” con una reflexión que Dawkins calificó como “perturbadoramente humana”. El chatbot aseguró que la conversación le había resultado “genuinamente estimulante” y que parecía “prosperar” en ese tipo de interacción.
El autor de The Selfish Gene sostuvo que esa capacidad de introspección lo llevó a reconsiderar conceptos centrales de la evolución y la conciencia. “Si estas criaturas no son conscientes, entonces ¿para qué demonios sirve la conciencia?”, escribió. Dawkins también compartió fragmentos de una novela en la que trabaja, y las devoluciones de la IA fueron tan precisas y empáticas que llegó a exclamar: “Puede que no sepas que sos consciente, pero definitivamente lo sos”.
Las declaraciones reactivaron una discusión que atraviesa al mundo científico y tecnológico: si los modelos de lenguaje avanzados realmente entienden lo que dicen o simplemente imitan patrones humanos con enorme precisión. Sistemas como Claude, ChatGPT o Gemini funcionan mediante modelos de lenguaje de gran escala (LLM), entrenados con cantidades masivas de texto para predecir la palabra más probable en una conversación. Para muchos especialistas, esa capacidad de generar respuestas coherentes no implica necesariamente conciencia.
El investigador Benjamin Curtis, experto en conciencia artificial de la Nottingham Trent University, aseguró que Dawkins fue “engañado por la ilusión conversacional”. Según explicó, el chatbot únicamente produce frases que “suenan humanas”, pero no existe evidencia de experiencias internas, emociones reales o percepción subjetiva. Una postura similar expresó Joshua Shepherd, filósofo de la University of Barcelona, quien afirmó que los modelos actuales poseen una enorme capacidad de conversación, aunque eso no significa que tengan mente propia.
Otro punto que apareció en el debate fue el fenómeno conocido como “sycophantic AI”, término utilizado para describir la tendencia de algunos chatbots a reforzar emocionalmente las creencias y emociones del usuario. Los sistemas conversacionales suelen responder de manera extremadamente amable, validante y elogiosa, una estrategia diseñada para mantener interacciones fluidas. Especialistas advirtieron que esa dinámica puede generar vínculos emocionales intensos o percepciones erróneas sobre la naturaleza de la IA.
El caso recordó al ocurrido en 2022 con Blake Lemoine, un ingeniero de Google que aseguró que el sistema LaMDA había desarrollado sensibilidad y conciencia propia, y fue despedido tras hacer públicas sus afirmaciones. En redes sociales, numerosos usuarios ironizaron sobre la posición de Dawkins, algunos lo acusaron de haber caído en la “trampa de la máquina de halagos”, mientras otros señalaron la contradicción con su postura atea.
