La conversación pública sobre inteligencia artificial suele oscilar entre el alarmismo y el entusiasmo desmedido. Desde su salida de Meta en enero de 2026, Nick Clegg ha tomado una postura crítica frente a ambos extremos: no niega los beneficios tecnológicos, pero advierte sobre la concentración de poder y las decisiones regulatorias que pueden asfixiar a emprendedores. Su incorporación a los consejos de Efekta y Nscale muestra el cruce entre política, empresas y educación, y plantea la pregunta de cómo desplegar la IA para reducir desigualdades sin crear nuevas dependencias.
En términos concretos, Efekta propone una herramienta que emula la interacción uno a uno en la enseñanza, con alcance actual en unos 4 millones de estudiantes, especialmente en América Latina y el sudeste asiático. Esa escala evidencia tanto el potencial democratizador de la tecnología como los desafíos: desde la protección de menores hasta la formación docente para usar correctamente los asistentes digitales. Clegg destaca que la esperanza está en una personalización adaptativa que atienda ritmos y contextos diversos, evitando que los centros urbanos monopolizen los mejores recursos.
La promesa pedagógica de la IA
La promesa principal es que la IA pueda ofrecer una experiencia educativa más ajustada a cada alumno. Al entender la enseñanza como un problema de atención y ritmo, herramientas como las de Efekta intentan replicar esa atención individualizada que es inviable en aulas masivas. Para ello emplean modelos capaces de ajustar contenidos según rendimiento y generar informes para docentes; esto supone una transformación en la práctica pedagógica, pero no sustituye la labor humana.
Es importante distinguir entre la capacidad técnica y la función educativa: la personalización adaptativa apoya, pero no reemplaza, la relación profesor-alumno.
Ventajas reales y límites prácticos
Entre las ventajas se encuentra la posibilidad de escalar métodos efectivos a regiones con escasez de docentes, reduciendo brechas educativas. Sin embargo, existen límites: los sistemas actuales son excelentes resolviendo tareas concretas como corrección de ejercicios o práctica guiada, pero suelen fallar ante preguntas creativas o contextos inéditos.
Aquí aparece otra distinción clave: los modelos de lenguaje son herramientas predictivas que imitan patrones lingüísticos, no inteligencias humanas. Ese matiz obliga a diseñar entornos donde la IA complemente la enseñanza sin convertirse en una muleta que inhiba habilidades fundamentales.
Concentración de poder y debate regulatorio
Más allá del aula, Clegg subraya un riesgo estructural: la acumulación de recursos y capacidades en manos de pocas empresas. Construir y mantener grandes LLM requiere infraestructuras costosas, lo que fortalece a actores dominantes en Estados Unidos y China. Esa dinámica puede reproducir desigualdades de influencia y de datos, y plantea un dilema político sobre quién controla las plataformas, los modelos y su despliegue. Además, los intentos regulatorios —según Clegg— han sido en ocasiones torpes, creando incertidumbre para fundadores europeos sin resolver realmente la responsabilidad por usos posteriores.
Gobernanza, supervisión y soluciones tecnológicas
En su experiencia en Meta promovió mecanismos de rendición de cuentas como el Oversight Board, una apuesta por reglas más transparentes sobre contenidos. Pero esa aproximación no se ha convertido en un estándar industrial. En cuanto a regulación continental, Clegg critica propuestas que pretendieron legislar sin comprender plenamente la tecnología subyacente, lo que puede ahogar innovación. Como alternativa propone fomentar el open source para democratizar acceso: la apertura del código y los modelos facilita auditorías, reduce la dependencia de proveedores únicos y permite a comunidades y empresas más pequeñas construir sobre infraestructuras compartidas.
Riesgos sociales y recomendaciones prácticas
No todo es técnico: hay riesgos sociales concretos, sobre todo para niños y personas vulnerables que pueden establecer vínculos emocionales con agentes conversacionales muy convincentes. Por eso Clegg aboga por medidas de precaución, como controles de edad y límites en la autonomía de los agentes cuando interactúan con menores. Al mismo tiempo, reconoce que prohibir tecnologías en entornos educativos sería inútil; la apuesta debe ser enseñar a usar IA críticamente, formar docentes y diseñar productos con salvaguardas. En suma, su visión mezcla optimismo pragmático con demandas claras de gobernanza: ampliar acceso, evitar oligopolios y proteger a los más frágiles.

