En el vertiginoso mundo de la tecnología, pocos individuos tienen la capacidad de transformar narrativas con la efectividad de Chris Lehane. Su trayectoria incluye haber sido secretario de prensa de Al Gore y gestionar las comunicaciones de crisis en Airbnb, lo que le ha permitido perfeccionar el arte de navegar en aguas turbulentas. Actualmente, Lehane es Vicepresidente de políticas globales en OpenAI, donde su misión es comunicar el compromiso de la empresa con la democratización de la inteligencia artificial. Sin embargo, esta tarea presenta desafíos, ya que las acciones de OpenAI a veces se asemejan a las de las grandes corporaciones tecnológicas de las que intentan diferenciarse.
La dualidad entre intención y acción
En el marco de la reciente conferencia Elevate en Toronto, tuve la oportunidad de conversar brevemente con Lehane durante 20 minutos. Mi intención era desvelar la imagen pulida que OpenAI presenta al mundo y descubrir las verdades más crudas que se esconden detrás. Sin embargo, llegar al núcleo del asunto resultó ser un desafío. Lehane demostró ser un comunicador hábil: encantador, racional y sincero sobre las incertidumbres que rodean la tecnología que representa. Compartió abiertamente sus preocupaciones nocturnas acerca de si sus innovaciones servirán realmente a los mejores intereses de la humanidad.
El dilema de Sora
Uno de los problemas más urgentes que enfrenta OpenAI es el reciente lanzamiento de su herramienta de generación de videos, Sora. Poco después de su lanzamiento, surgieron controversias debido a la integración de contenido protegido por derechos de autor en su marco de funcionamiento. Esta decisión se produjo en un momento en que OpenAI ya lidiaba con desafíos legales de importantes publicaciones como el New York Times y el Toronto Star.
Desde una perspectiva de marketing, la exclusividad de la aplicación, disponible solo por invitación, la catapultó a los primeros lugares en las clasificaciones de las tiendas de aplicaciones. Los usuarios comenzaron a crear avatares digitales de sí mismos, personajes populares e incluso celebridades fallecidas.
Cuando presioné a Lehane sobre las motivaciones detrás del lanzamiento de Sora con dicho contenido, lo comparó con una tecnología de propósito general similar a la imprenta, afirmando que democratiza la creatividad para quienes carecen de recursos o habilidades. Incluso se identificó humorísticamente como un «cero creativo» que ahora puede producir videos gracias a esta herramienta.
Sin embargo, evitó abordar la controversia relacionada con el enfoque inicial de OpenAI sobre los derechos de autor, que permitía a los titulares optar por no permitir que sus obras fueran utilizadas para entrenar Sora. Este enfoque representa una desviación significativa de las prácticas convencionales de derechos de autor. Tras darse cuenta de la popularidad de los materiales protegidos, OpenAI cambió a un modelo de opt-in, que parecía más una prueba de límites que una verdadera revisión de sus políticas. La Asociación de Películas ha expresado preocupaciones sobre posibles repercusiones legales, pero parece que OpenAI ha logrado navegar a través de gran parte de la turbulencia.
Implicaciones económicas y responsabilidades éticas
Las repercusiones de estos acontecimientos se extienden a las preocupaciones expresadas por editores, quienes acusan a OpenAI de beneficiarse de sus obras sin una compensación justa. Al plantear este tema a Lehane, él citó el principio de uso justo, una doctrina legal que busca equilibrar los derechos de los creadores con el acceso público al conocimiento. Lo describió como un elemento crucial de la dominancia tecnológica estadounidense.
Si bien esta perspectiva tiene su validez, surgen interrogantes sobre las consecuencias para el futuro de la creación de contenido. Recordé una conversación previa con Al Gore, donde mencioné que las personas podrían recurrir a ChatGPT para obtener información en lugar de leer las obras originales. “Es una evolución gradual”, comenté, “pero también corre el riesgo de convertirse en un sustituto.”
La respuesta de Lehane fue reveladora. Reconoció las complejidades de desarrollar nuevos modelos económicos, admitiendo que el camino hacia adelante no es sencillo. «Tendremos que averiguarlo sobre la marcha», afirmó, lo que subraya la incertidumbre que rodea la evolución de la industria.
El debate sobre la infraestructura
A medida que OpenAI expande su infraestructura, surgen preguntas sobre el impacto en las comunidades. La empresa está estableciendo centros de datos en áreas económicamente desfavorecidas, como Abilene, Texas, y Lordstown, Ohio. Lehane ha trazado paralelismos entre el auge de la inteligencia artificial y la adopción histórica de la electricidad, sugiriendo que aquellos que retrasen la adopción de estas tecnologías quedarán rezagados. Sin embargo, esta expansión plantea preocupaciones críticas sobre si las comunidades locales obtendrán beneficios o simplemente soportarán los costos del aumento en el uso de servicios públicos.
Durante una discusión sobre las necesidades energéticas, Lehane destacó que las operaciones de OpenAI requieren recursos significativos, alcanzando aproximadamente un gigavatio de energía semanal. Señaló que países como China están aumentando rápidamente sus capacidades de producción energética, sugiriendo que, para que las democracias mantengan el ritmo, es necesario invertir en su infraestructura energética. Su visión optimista retrató una América revitalizada con sistemas de energía modernizados, aunque aún quedan preguntas sin respuesta sobre la carga que esto supone para los ciudadanos locales.
Costos humanos y consideraciones éticas
El aspecto humano de esta historia se puso de manifiesto cuando Zelda Williams utilizó las redes sociales para expresar su angustia por la proliferación de videos generados por inteligencia artificial que presentan a su difunto padre, Robin Williams. Su mensaje fue claro: “No están creando arte; están mercantilizando vidas”. Este sentimiento plantea dilemas éticos sobre el posible daño que pueden causar las tecnologías de inteligencia artificial.
Al preguntar a Lehane cómo OpenAI aborda los impactos negativos en relación con su misión, destacó el compromiso de la empresa con un diseño responsable y la colaboración con entidades gubernamentales. Reconoció la enorme responsabilidad que conlleva su trabajo y admitió que no existe un manual establecido para navegar estas aguas inexploradas.
Al reflexionar sobre las conversaciones de ese día, quedó claro que incluso dentro de OpenAI hay una creciente tensión respecto a su trayectoria. Algunos empleados han expresado sus preocupaciones públicamente, entre ellos Josh Achiam, el responsable de alineación de misión. Achiam manifestó una profunda preocupación sobre el potencial de la empresa para convertirse en un ‘poder aterrador’ en lugar de una fuerza virtuosa, lo que indica un conflicto interno significativo.
A medida que OpenAI se acerca al ambicioso objetivo de lograr la inteligencia general artificial, la pregunta clave no se limita a la capacidad de Lehane para proyectar una imagen positiva. Se centra en si el equipo de OpenAI podrá alinear sus valores con la realidad de sus innovaciones.