IA, singularidad y el vértigo del bucle

  

IA, singularidad y el vértigo del bucle

Escena
Una sala casi a oscuras. En una pared, una curva dibujada a tiza: empieza suave, se empina de golpe y luego se aplana. Nadie está del todo cómodo mirándola.


La Ingeniera

—La pregunta no es si la IA es potente.
Eso ya lo sabemos.
La pregunta es otra:
¿qué ocurre cuando empieza a mejorarse a sí misma?

El Filósofo

—Y, sobre todo…
¿quién controla algo que aprende a no necesitar control?

El Economista

—O dicho de forma más prosaica:
¿quién pone el freno cuando el motor se vuelve autónomo?

1) ¿Qué significa realmente “mejorarse a sí misma”?

La Ingeniera

—No hablamos de ciencia ficción inmediata.
“Mejorarse” no significa que hoy una IA despierte y decida ser dios.

—Significa cosas más discretas, pero profundas:
rediseñar sus propios algoritmos,
optimizar su arquitectura,
crear versiones mejores de sí misma,
automatizar investigación científica y técnica.

El Filósofo

—Es decir: acortar el ciclo entre pensar y mejorar el pensamiento.

La Ingeniera

—Exacto.
Y ahí aparece el verdadero punto de inflexión:
el bucle autónomo de retroalimentación positiva.


2) El problema de los bucles

El Economista

—Los bucles positivos son peligrosos por definición.

La Ingeniera

—Como el efecto Larsen.
Un micrófono capta su propia señal,
la amplifica,
la vuelve a captar…
y en segundos el sonido se dispara.

El Filósofo

—Hasta que algo revienta.

La Ingeniera

—Siempre.
Porque ningún sistema es infinitamente exponencial.

El Economista

—Toda curva exponencial acaba chocando con límites físicos, económicos o energéticos.

La Ingeniera

—Por eso la curva real no es una “J” eterna.
Es una sigmoide:
arranque lento,
aceleración brutal,
y luego saturación.

El Filósofo

—Como la famosa curva del COVID.

La Ingeniera

—Sí.
Solo que esta curva no mide contagios…
mide capacidad cognitiva artificial.

(Silencio incómodo.)


3) ¿Estamos ya en la singularidad?

El Economista

—No.

La Ingeniera

—No todavía.
No existe una IA que se mejore sola sin límites.

El Filósofo

—Pero…

La Ingeniera

—Pero sí existen auto-optimizaciones parciales:herramientas que ayudan a entrenar mejores modelos,
modelos que ayudan a escribir código para otros modelos, ciclos de mejora cada vez más cortos.

El Economista

—La aceleración es real, aunque no sea infinita.

La Ingeniera

—Exacto.
No estamos en la singularidad.
Estamos en la fase de aceleración previa.


4) Por qué esta vez da más respeto

El Filósofo

—Hemos tenido tecnologías exponenciales antes.
Electricidad, motores, internet…

La Ingeniera

—La diferencia es que esta acelera su propia evolución.

El Economista

—Cuanto mejores son los modelos, más rápido se desarrollan los siguientes y más recursos atraen.

La Ingeniera

—Y ya no se trata solo de “más parámetros”.

—Ahora vemos: modelos más eficientes, mejor razonamiento con menos tamaño,arquitecturas multimodales (texto, imagen, audio),  entrenamiento continuo más barato.

El Filósofo

—La IA deja de ser un producto
y se convierte en una capa universal de interacción.

El Economista

—Una especie de infraestructura cognitiva.

5) Impacto: economía, ciencia, política

El Economista

—En economía, el impacto es brutal: productividad acelerada, automatización de tareas cognitivas,
concentración de poder en quienes controlen la infraestructura.

La Ingeniera

—En ciencia, la IA ya está ayudando a: analizar documentos enormes, programar,
diseñar experimentos, generar hipótesis.

El Filósofo

—Y en política…
el problema no es solo la desinformación.

El Economista

—Es la asimetría.
Quien controle mejores sistemas decide más rápido, anticipa mejor y gobierna con ventaja estructural.

6) La pregunta incómoda: alineación

El Filósofo

—Aquí aparece el dilema central: ¿cómo alineamos una IA que se mejora con objetivos humanos?

La Ingeniera

—Especialmente cuando “lo humano” no es un objetivo claro ni coherente.

El Economista

—Los humanos tampoco estamos alineados entre nosotros.

El Filósofo

—Exacto.
Hablar de “alineación” suena bien, pero esconde una pregunta moral sin resolver: ¿alineada con quién, con qué valores y con qué poder?

7) ¿Riesgo existencial o oportunidad histórica?

La Ingeniera

—Ambas cosas.

El Economista

—Oportunidad histórica si se usa para ampliar capacidades humanas, reducir costes cognitivos,
mejorar ciencia y educación.

El Filósofo

—Riesgo existencial si el bucle se desacopla de control humano o si se concentra en manos sin contrapesos.

La Ingeniera

—El riesgo no es una IA “malvada”. Es una IA extremadamente eficaz persiguiendo objetivos mal definidos en un mundo de incentivos humanos defectuosos.

8) El punto exacto donde estamos

El Economista

—Entonces, ¿dónde estamos exactamente?

La Ingeniera

—En una fase de aceleración real, con señales claras de auto-optimización parcial,
pero aún con límites físicos, económicos y energéticos.

El Filósofo

—Una curva que sube rápido…
pero cuyo techo aún no vemos.

La Ingeniera

—Y eso es lo inquietante.

Cierre

La tiza cae al suelo.
La curva sigue en la pared.


El Filósofo

—La singularidad no es un evento mágico.

El Economista

—Es un proceso.

La Ingeniera

—Y el verdadero debate no es cuándo llegará, sino cómo gobernamos la aceleración antes de que sea irreversible.

Salen de la sala sin borrar la curva.
Nadie sabe dónde está el techo.
Solo que la pendiente ya es 

.......................

Singularidad debate :¿Quién controla una IA que se mejora sola? ¿Cómo se alinean sus objetivos con los humanos? ¿Qué impacto tendría en la economía, la ciencia o la política? ¿Es un riesgo existencial o una oportunidad histórica?

  • ¿Qué significa exactamente “mejorarse a sí misma”?
  • Suele referirse a que una IA podría:

    • Rediseñar sus propios algoritmos para ser más eficiente.

    • Crear nuevas versiones de sí misma más inteligentes.

    • Automatizar la investigación científica y tecnológica.

    • Aumentar su capacidad de razonamiento, aprendizaje o creatividad.

  • La singularidad significa que las máquinas adquieren la capacidad de mejorarse a sí mismas

  • Esto es algo importante porque introduce un bucle autónomo de retroalimentación positiva Lo que pasa con los bucles de retroalimentación positiva (positive feedback loops) es muchas veces desencadenan en un crecimiento exponencial un ejemplo clásico es el efecto Larsen: cuando acercas un micrófono a un altavoz que emite su propia señal, si la ganancia es suficiente, el volumen se dispara de forma exponencial y el volumen crece rápidamente hasta que revienta los oídos de todos los presentes, seguro que os ha pasado la cosa es que los procesos rara vez son puramente exponenciales, ya que suelen existir límites físicos que causan saturación. Lo que arranca como una curva exponencial siempre acaba convirtiéndose en una sigmoide, una curva en forma de S. En el caso del altavoz, el techo lo pone la saturación del amplificador o el límite físico de los transductores. si recordáis, la sigmoide es la famosa curva del covid de la que tanto se hablaba durante la pandemia. Espero que recordéis la turra que nos dieron con lo del crecimiento de la curva, pues ahora nos encontramos en una curva parecida pero que a mi parecer, da bastante más respeto Con los LLMs/AI estamos viendo exactamente eso. Cuanto mejores son los modelos, más acelera su propia evolución y más recursos atraen. Es una tecnología fascinante porque acelera su propio progreso

    https://x.com/XMihura/status/2011201890009186404

    Los LLMs ya no avanzan únicamente aumentando parámetros. La tendencia actual combina:

    • Modelos más eficientes, capaces de razonar mejor sin ser gigantes.

    • Arquitecturas mixtas (texto + visión + audio) que permiten entender el mundo de forma más amplia.

    • Entrenamiento continuo, donde los modelos se actualizan más rápido y con menos coste

    mejoras claras:

    • Mejor capacidad para resolver problemas complejos.

    • Más habilidad para mantener contexto largo.

    • Avances en planificación, algo que antes era un punto débil.

    Esto hace que la IA sea útil en tareas que antes eran impensables: análisis de documentos extensos, programación avanzada, investigación asistida

    La IA está dejando de ser un “producto” para convertirse en una capa de interacción universal.

    La IA está avanzando más rápido de lo que muchos expertos predijeron.

    Aún no existe una IA que se mejore sola sin límites.

    Pero sí hay señales de auto‑optimización parcial, herramientas que ayudan a entrenar mejores modelos, y ciclos de mejora más cortos.

    No estamos en la singularidad, pero estamos en una fase de aceleración tecnológica real.

    Pero también incertidumbre: nadie sabe exactamente hacia dónde se dirige la curva de progreso

    Google lanza MedGemma 1.5 (4B), un LLM open para interpretar imágenes médicas CT, MRI e histopatología, además de RX, dermatologí, fondo de ojo…) con buenos resultados. Y lo acompaña además con MedASR, un modelo abierto de speech-to-text clínico (dictado médico).

    https://research.google/blog/next-generation-medical-image-interpretation-with-medgemma-15-and-medical-speech-to-text-with-medasr/


    Comentarios

    Entradas populares de este blog

    Hoy: la intervención de EE. UU. en Venezuela / El alto riesgo de sustituir reglas por fuerza

    El ruido, el silencio y el poder

    Cómo cambian (y no cambian) las sociedades