New crisis shakes OpenAI and its 'super-alignment' team/Nueva crisis sacude OpenAI y su equipo de 'súperalineación'

in #science25 days ago


Source

Not long ago alarm bells were raised about the potential danger of artificial intelligence for humanity, with statements such as those of Elon Musk that AI is more dangerous than nuclear weapons, which led to the presentation of an open letter from several of the gurus of the moment asking for a regulatory framework for its control.

Hace no mucho tiempo ya saltaron las alarmas sobre la potencial peligrosidad de la inteligencia artificial para la humanidad, con frases como las de Elon Musk de que la IA es más peligrosa que las armas nucleares, que llevaron a la presentación de una carta abierta de varios de los gurús del momento pidiendo un marco regulatorio par su control.

As a result of this, the company OpenAI announced last summer a new strategy called 'superalignment', designing something like an AI mediator between humans and artificial general intelligence (AGI), which would be responsible for analyzing the individual objectives of each AI and their advances to try to protect us in some way.

Como resultado de esto la compañía OpenAI anunciaba el verano pasado una nueva estrategia llamada 'superalineación', diseñar algo así como una IA mediadora entre los humanos y la inteligencia artificial general (AGI), que se encargase de analizar los objetivos individuales de cada IA y sus avances para intentar protegernos de algún modo.


Source

The person in charge of developing this strategy and supervising it was the co-founder of OpenAI Ilya Sutskever, but it seems that he was not very happy with the progress of this super-alignment because Ilya has decided to leave the company and start a new one to dedicate himself to a new project of the still he has not given details.

El encargado de desarrollar esta estrategia y supervisarla era el co-fundador de OpenAI Ilya Sutskever, pero parece que no estaba muy contento con la marcha de esta súperalineación pues Ilya ha decidido abandonar la compañía y empezar una nueva para dedicarse a un nuevo proyecto del todavía no ha dado detalles.

After the successful presentation of GPT-4o, Ilya Sutstkever and his collaborator researcher Jan Leike announced their resignation last week and the "super-alignment" working group is being dissolved amid accusations of not having received sufficient resources to carry out the supervision of artificial intelligence.

Después de la exitosa presentación de GPT-4o, Ilya Sutstkever y su colaborador el investigador Jan Leike anunciaron su dimisión la semana pasada y se está disolviendo el grupo de trabajo de la "súperalineación" entre acusaciones de no haber recibido los recursos suficientes para llevar a cabo la supervisión de la inteligencia artificial.


Source

Of course Sam Altman's followers deny everything and claim that they are also concerned about security. I will not be the one to publicly defend Altman's good intentions since he offers me little confidence, but we must remember that a few months ago Ilya already tried to get rid of Altman without success and it may be revenge.

Por supuesto los seguidores de Sam Altman lo niegan todo y alegan que ellos también están preocupados por la seguridad. No seré yo quien defienda públicamente las buenas intenciones de Altman ya que me ofrece poca confianza, pero hay que recordar que hace unos meses Ilya ya intentó deshacerse de Altman sin éxito y puede que sea una venganza.

In any case, based even on these two characters, I repeat what I have already said several times in this blog, personally I am not afraid of artificial intelligence, what makes me panic is the natural stupidity and greed of human beings , that we will end up using AI for the most disgusting purposes you can think of.

De cualquier forma, basándome incluso en estos dos personajes, vuelvo a repetir lo que ya he dicho varias veces en este blog, personalmente no me da miedo la inteligencia artificial, lo que me da pánico es la estupidez natural y la codicia de los seres humanos, que acabaremos utilizando la IA para los fines más asquerosos que se os puedan ocurrir.

More information/Más información
https://economictimes.indiatimes.com/tech/technology/explainer-openai-exits-and-the-big-ai-debate/articleshow/110280161.cms?from=mdr

https://www.xataka.com/robotica-e-ia/nueva-crisis-sacude-a-openai-su-equipo-superalineacion-temor-a-largo-plazo-ia-fuera-control

Sort:  

I just hope they get to settle their internal issues before it goes out of hands

These types of internal issues, if not quickly tackled. It can eventually affect the company

The world of artificial intelligence is really growing very fast and so massive I must confess and this is really a beauty to actually behold and admire of. I love this

La IA es más peligrosa que las armas nucleares, estoy de acuerdo con Elon Musk, pero más peligroso son quienes la manejan y la aplican para el mal.

¡Saludos y éxitos!

Coin Marketplace

STEEM 0.23
TRX 0.12
JST 0.029
BTC 66121.65
ETH 3564.76
USDT 1.00
SBD 3.14