
Amanda Askell guida il team di personality alignment di Anthropic. Ha un dottorato in etica dell'infinito alla NYU, ha lasciato OpenAI perché non credeva che la sicurezza dell'AI fosse presa sul serio, e oggi supervisiona quello che lei chiama "l'anima di Claude" — non è una metafora, è letteralmente il suo lavoro.
Il suo progetto più noto è il Constitutional AI: un documento di ventimila parole che non dice al modello cosa non fare, ma cerca di insegnargli il perché dietro l'etica.
Ho scritto di lei su AI di Provincia, un blog che faccio da un paese di mille abitanti in Irpinia. Non è un pezzo tecnico — è una riflessione su cosa significa sapere che questo lavoro esiste, e sentirsi allo stesso tempo vicini e lontanissimi da chi lo fa.
👉 aidiprovincia.it/post/La%20Filosofia%20nell'IA
Domanda per la community: secondo voi ha senso parlare di "carattere" o "anima" per un LLM, o è solo una scorciatoia narrativa comoda?