Ni siquiera la 'madrina de la IA' tiene idea de qué es AGI

Ni siquiera la 'madrina de la IA' tiene idea de qué es AGI
Publicidad
Comparte esto en:

Pero si aún te preguntas qué demonios es el AGI, no estás solo.

En una extensa discusión el jueves en la Cumbre de Liderazgo de IA Responsable de Credo AI, Fei-Fei Li, una investigadora de renombre mundial a menudo llamada la «madrina de la IA», dijo que tampoco sabe qué es AGI. En otro lugar, Li habló sobre su papel en el nacimiento de la IA moderna, cómo la sociedad debería protegerse contra modelos avanzados de IA y por qué cree que su nueva startup unicornio, World Labs, cambiará todo.

Publicidad

Pero cuando se le preguntó sobre qué pensaba en relación con una «singularidad de IA», Li estaba tan perdida como el resto de nosotros.

Publicidad

«Vengo del mundo académico de la IA y fui educada en métodos más rigurosos basados en evidencia, así que realmente no sé qué significan todas estas palabras», dijo Li en una sala llena en San Francisco, junto a una ventana grande con vista al Puente Golden Gate. “Francamente, ni siquiera sé qué significa AGI. Como dicen las personas, lo sabes cuando lo ves, supongo que yo no lo vi. La verdad es que no paso mucho tiempo pensando en estas palabras porque creo que hay muchas cosas más importantes que hacer…”

Si alguien sabe qué es AGI, probablemente sea Fei-Fei Li. En 2006, creó ImageNet, el primer gran conjunto de datos de evaluación comparativa y entrenamiento de IA del mundo, que fue fundamental para catalizar nuestro actual auge de la IA. De 2017 a 2018, se desempeñó como científica jefe de IA / ML en Google Cloud. Hoy en día, Li dirige el Instituto de IA Centrado en el Humano (HAI, por sus siglas en inglés) de Stanford y su startup World Labs está construyendo «grandes modelos mundiales». (Ese término es casi tan confuso como AGI, si me preguntas).

Lea además:  Ashton Kutcher, Effie Epstein y Guy Oseary llegarán a Disrupt 2024

El CEO de OpenAI, Sam Altman, intentó definir AGI en un perfil con El neoyorquino el año pasado. Altman describió a AGI como el «equivalente de un ser humano promedio que podrías contratar como compañero de trabajo».

En relación a eso, la Carta de OpenAI define AGI como «sistemas altamente autónomos que superan a los humanos en la mayoría de los trabajos económicamente valiosos».

Evidentemente, estas definiciones no eran lo suficientemente buenas para que trabajara una empresa de 157 mil millones de dólares. Por lo tanto, OpenAI creó los cinco niveles que utiliza internamente para evaluar su progreso hacia el AGI. El primer nivel son los chatbots (como ChatGPT), luego los razonadores (aparentemente OpenAI o1 era ese nivel), los agentes (que viene a continuación, supuestamente), los innovadores (IA que puede ayudar a inventar cosas) y el último nivel, organizacional (IA que puede ayudar a hacer el trabajo de toda una organización).

¿Sigues confundido? Yo también y Li también. Además, todo esto parece mucho más de lo que podría hacer un compañero de trabajo humano promedio.

Al inicio de la charla, Li dijo que la idea de inteligencia la fascina desde que era joven. Esto la llevó a estudiar IA mucho antes de que fuera rentable hacerlo. A principios de la década de 2000, Li dice que ella y algunos otros estaban silenciosamente sentando las bases para este campo.

“En 2012, mi ImageNet se combinó con AlexNet y GPU; mucha gente llama a esto el nacimiento de la IA moderna. Fue impulsado por tres ingredientes clave: big data, redes neuronales y computación GPU moderna. Y cuando llegó ese momento, creo que la vida nunca volvió a ser la misma para todo el campo de la IA, así como para nuestro mundo”.

Lea además:  Helene devastó la planta de Carolina del Norte que produce el 60% del suministro de líquidos intravenosos del país.

Cuando se le preguntó sobre el controvertido proyecto de ley de IA de California, SB 1047, Li habló con cuidado para no volver a una controversia que el gobernador Newsom acaba de poner fin al veto del proyecto de ley la semana pasada. (Recientemente hablamos con el autor de la SB 1047, y él estaba más interesado en reabrir su discusión con Li).

“Algunos de ustedes tal vez sepan que he expresado mis preocupaciones sobre este proyecto de ley. [SB 1047] fue vetado, pero ahora estoy pensando profundamente y con mucha emoción en mirar hacia adelante», dijo Li. «Me sentí muy halagado u honrado de que el gobernador Newsom me invitara a participar en los siguientes pasos del proceso post -SB 1047.”

El gobernador de California recurrió recientemente a Li, junto con otros expertos en IA, para formar un grupo de trabajo que ayudara al estado a desarrollar protecciones para el despliegue de IA. Li dijo que está utilizando un enfoque basado en evidencia en este rol y hará todo lo posible para abogar por la investigación y la financiación académica. Sin embargo, también quiere garantizar que California no castigue a los tecnólogos.

«Realmente necesitamos analizar el impacto potencial en los seres humanos y nuestras comunidades, en lugar de colocar la carga sobre la tecnología en sí… No tendría sentido para nosotros penalizar a un ingeniero automotriz – digamos, Ford o GM – si un automóvil es mal utilizado intencionalmente o no y daña a una persona. Penalizar simplemente al ingeniero automotriz no hará que los automóviles sean más seguros. Lo que tenemos que hacer es seguir innovando para lograr medidas más seguras, pero también mejorar el marco regulatorio (ya sean cinturones de seguridad o límites de velocidad) y lo mismo se aplica a la IA”.

Lea además:  Helene devastó la planta de Carolina del Norte que produce el 60% del suministro de líquidos intravenosos del país.

Este es uno de los mejores argumentos que he escuchado en contra de la SB 1047, que habría castigado a las empresas de tecnología por modelos peligrosos de IA.

Aunque Li asesora a California sobre la regulación de la IA, también dirige su startup, World Labs, en San Francisco. Es la primera vez que Li funda una startup y es una de las pocas mujeres que dirige un laboratorio de inteligencia artificial de vanguardia.

«Estamos lejos de tener un ecosistema de IA muy diverso», dijo Li. «Creo que una inteligencia humana diversa conducirá a una inteligencia artificial diversa y solo nos brindará una mejor tecnología».

En los próximos años, le entusiasma acercar la “inteligencia espacial” a la realidad. Li dice que el lenguaje humano, en el que se basan los grandes modelos lingüísticos actuales, probablemente tardó un millón de años en desarrollarse, mientras que la visión y la percepción probablemente tardaron 540 millones de años. Esto significa que crear modelos mundiales grandes es una tarea mucho más complicada.

Publicidad

«No se trata solo de hacer que las computadoras vean, se trata de hacer que las computadoras entiendan todo el mundo 3D, lo que yo llamo inteligencia espacial», dijo Li. «No solo estamos viendo para nombrar cosas… En realidad, estamos viendo para hacer cosas, navegar por el mundo, interactuar entre sí, y cerrar esa brecha entre ver y hacer requiere conocimiento espacial. Como tecnólogo, estoy muy entusiasmado con esto”.


Comparte esto en:
Publicidad

Publicaciones Similares

Deja un comentario