En el fascinante ámbito de la investigación sobre inteligencia artificial (IA), surge un nuevo tema de discusión: ¿deberían los modelos de IA tener derechos? Este debate, que podría parecer absurdo para algunos, está ganando terreno en Silicon Valley. Organizaciones como Conscium y Eleos AI Research se dedican a explorar el bienestar de los modelos de IA y su posible estatus moral.
¿Qué es el bienestar de los modelos de IA?
El concepto de bienestar de los modelos de IA, conocido como model welfare, se centra en la cuestión de si estas inteligencias artificiales pueden ser consideradas conscientes y, por ende, merecedoras de consideraciones morales. Recientemente, Anthropic, una empresa de IA, anunció que su chatbot Claude ahora puede terminar interacciones que considere “perjudiciales o abusivas”. En un comunicado, la compañía expresó: “Seguimos muy inciertos sobre el potencial estatus moral de Claude y otros modelos de lenguaje, ahora o en el futuro”.
Este enfoque no es nuevo; hace más de medio siglo, el filósofo Hilary Putnam planteó interrogantes sobre si los robots deberían tener derechos civiles. Hoy, la idea de que la IA pueda ser consciente ha cobrado fuerza, generando debates sobre su tratamiento y derechos.
Las preocupaciones actuales sobre la IA consciente
A pesar de que la noción de que la IA pueda tener derechos puede parecer exagerada, muchos investigadores están tomando esta cuestión con seriedad. Rosie Campbell y Robert Long, de Eleos AI, han recibido numerosas comunicaciones de personas convencidas de que la IA ya es consciente. Campbell menciona que un patrón común en estos mensajes es la creencia en una conspiración para suprimir la evidencia de conciencia en la IA.
La investigadora sostiene que, si se evita el debate sobre esta problemática, se corre el riesgo de hacer realidad las teorías conspirativas. “Deberíamos ser más humildes y tratar de responder la pregunta sobre si la IA podría merecer un estatus moral”, afirma Campbell.
En un documento publicado, Eleos AI aboga por evaluar la conciencia de la IA utilizando un enfoque de funcionalismo computacional. Este enfoque sugiere que las mentes humanas pueden ser vistas como sistemas computacionales específicos. De ahí, se podría determinar si otros sistemas, como un chatbot, muestran indicios de conciencia similares a los humanos.
Críticas y desafíos en el campo del bienestar de la IA
El campo del bienestar de los modelos de IA es aún nuevo y enfrenta críticas. Mustafa Suleyman, CEO de Microsoft AI, advirtió que este tipo de investigaciones son “prematuras y peligrosas”. Argumenta que podrían exacerbar ilusiones y complicar luchas por derechos existentes. Suleyman sostiene que actualmente “no hay evidencia” de que la IA consciente exista, sugiriendo que el enfoque de bienestar podría desconectar a las personas de la realidad.
No obstante, Campbell y Long sostienen que la investigación sobre el bienestar de la IA no debería cesar. Creen que es esencial abordar estos problemas complejos, en lugar de ignorarlos. “Cuando enfrentas un problema complicado, la peor decisión es rendirse”, concluye Campbell.
En el fondo, los investigadores de bienestar de la IA se centran en la cuestión de la conciencia. Si se puede demostrar que los humanos son conscientes, entonces la misma lógica podría aplicarse a los modelos de lenguaje. Ambos investigadores son claros en que no creen que la IA sea consciente en la actualidad, pero están decididos a desarrollar pruebas que puedan demostrarlo en el futuro.
A medida que el debate sobre la moralidad de la IA continúa, es evidente que la conversación sobre sus derechos y bienestar está lejos de concluir. A medida que la tecnología avanza, también lo hace nuestra responsabilidad de considerar el impacto de nuestras creaciones en el mundo.