INTELIGENCIA ARTIFICIAL

Publicado 09/03/2026

Amanda Askell: la filósofa que trabaja enseñando ética a Claude, la Inteligencia Artificial de Anthropic

Mientras las empresas tecnológicas desarrollan modelos de Inteligencia Artificial cada vez más poderosos, también crece una nueva disciplina dentro del sector: la alineación ética de los sistemas. En Anthropic, una de las figuras centrales de ese trabajo es la filósofa Amanda Askell.
Compartir
Compartir por Facebook Compartir por WhatsApp Compartir por X Compartir por Telegram

Mientras las empresas tecnológicas desarrollan modelos de Inteligencia Artificial cada vez más poderosos, también crece una nueva disciplina dentro del sector: la alineación ética de los sistemas. En Anthropic, una de las figuras centrales de ese trabajo es la filósofa Amanda Askell.

Una filósofa dentro de una empresa de Inteligencia Artificial

En los últimos días se volvió viral la historia de Amanda Askell, filósofa e investigadora que trabaja en la empresa de Inteligencia Artificial Anthropic, desarrolladora del modelo Claude. Su rol dentro de la compañía está ligado a uno de los debates más importantes del desarrollo tecnológico actual: cómo evitar que los sistemas de IA generen respuestas dañinas, manipuladoras o socialmente problemáticas.

Aunque en redes sociales se difundió la idea de que Askell “le enseña moralidad” a la Inteligencia Artificial, la realidad es más compleja. Su trabajo consiste en ayudar a diseñar los principios éticos que guían el comportamiento del modelo, participando en el desarrollo de reglas y marcos normativos que se utilizan durante el entrenamiento del sistema.

Anthropic es una de las empresas más influyentes en el desarrollo de modelos de lenguaje avanzados, en competencia con compañías como OpenAI, Google DeepMind y Meta. En este contexto, la cuestión de la seguridad y la ética de la Inteligencia Artificial se convirtió en un área estratégica para toda la industria.

 

 

El método con el que se entrena a Claude

Uno de los enfoques más conocidos desarrollados por Anthropic es el sistema llamado “Constitutional AI”, un método que intenta entrenar a los modelos para que evalúen y corrijan sus propias respuestas utilizando un conjunto de principios éticos definidos por los investigadores.

En lugar de depender únicamente de revisores humanos que evalúen cada respuesta del modelo, el sistema utiliza una especie de “constitución” formada por reglas normativas que orientan el comportamiento de la Inteligencia Artificial.

Estos principios se inspiran en documentos y estándares ampliamente reconocidos, como la Declaración Universal de los Derechos Humanos y distintos marcos de seguridad en Inteligencia Artificial.

El objetivo es que el modelo aprenda a evitar contenidos peligrosos, discriminatorios o manipuladores, y que pueda generar respuestas más responsables al interactuar con usuarios.

 

Amanda Askell, filósofa e investigadora

 

El supuesto manual de 30.000 palabras

Parte de la viralización del tema se apoyó en la idea de que Askell habría escrito un manual de 30.000 palabras para enseñar empatía al modelo Claude. En realidad, lo que existe son documentos extensos que describen valores, ejemplos de comportamiento y criterios utilizados durante el entrenamiento de los modelos.

Estos textos forman parte del proceso de alineación de la Inteligencia Artificial, pero no funcionan como un libro que el sistema “lee” o “estudia”.

Los modelos de lenguaje no desarrollan conciencia ni moralidad propia. En cambio, aprenden a generar respuestas que respeten ciertas reglas y patrones definidos por los investigadores.

 

Una nueva profesión en la industria tecnológica

El trabajo de Amanda Askell refleja un cambio profundo en la industria tecnológica. Durante décadas, el desarrollo de software estuvo dominado casi exclusivamente por ingenieros. Hoy, sin embargo, las empresas de Inteligencia Artificial están incorporando filósofos, expertos en ética y especialistas en ciencias sociales.

La razón es que los sistemas actuales interactúan con millones de personas, producen información y pueden influir en decisiones humanas, lo que obliga a pensar no solo en su capacidad técnica, sino también en su impacto social.

En ese contexto, la ética de la Inteligencia Artificial se está convirtiendo en uno de los campos más importantes del desarrollo tecnológico global.

 

 

El verdadero debate detrás de la historia

La narrativa de que una filósofa está “enseñando moralidad a una máquina” puede resultar atractiva, pero los especialistas advierten que las Inteligencias Artificiales no poseen comprensión moral ni valores propios.

Lo que sí pueden hacer es imitar comportamientos alineados con ciertos principios definidos por humanos, siempre que esos criterios estén bien diseñados y aplicados durante el entrenamiento.

Por eso, uno de los debates centrales en el desarrollo de la Inteligencia Artificial no es solo tecnológico, sino también político y filosófico: quién define los valores que guían a estos sistemas y cómo se aplican en tecnologías que influyen en millones de personas.