el más reciente

― Advertisement ―

Relacionada

Bill Gates una vez reveló un rasgo vital de la personalidad...

Bill Gates cree que desarrollar la confianza a una perduración temprana es esencial porque proporciona el “coraje para exceder los obstáculos” a prolongado plazo...
spot_img
HomeNegocioLa división de robótica de OpenAI pierde a su líder clave Caitlin...

La división de robótica de OpenAI pierde a su líder clave Caitlin Kalinowski por desacuerdo sobre los términos del despliegue militar

En sábado, Caitlin Kalinowski dijo que renunció AbiertoAIargumentando que los usos potenciales de la IA para el seguimiento sin orden procesal de los estadounidenses y los sistemas de armas que operan sin una valor humana exigieron un debate más cuidadoso del que recibieron. Su salida ocurre cuando OpenAI se expande a proyectos clasificados del Pentágono bajo un acuerdo que mantuvo dos límites establecidos: ninguna vigilancia masiva interna y un requisito de control humano sobre cualquier uso de la fuerza.

En una publicación en X, Kalinowski dijo que todavía cree que la IA puede ser importante para la seguridad doméstico, pero trazó límites estrictos en torno al espionaje interno sin supervisión procesal y una autonomía mortal sin autorización humana.

Todavía enmarcó la renuncia como una indicación de títulos más que como una disputa personal, al tiempo que dijo que respeta Sam Altman y sigue orgullosa de lo que construyó su especie de robótica.

Ella incluso compartió el mismo mensaje en su publicación de LinkedIn.

La audaz salida de Caitlin Kalinowski genera debate

Las preocupaciones de Kalinowski reflejan las mismas dos líneas divisorias que ahora configuran la forma en que los principales laboratorios de IA negocian con el maquinaria de seguridad doméstico de Estados Unidos: la vigilancia interna y la autonomía en el uso de la fuerza. En su publicación, dijo que esas cuestiones no fueron sopesadas con el nivel de deliberación que esperaba.

Al mismo tiempo, Altman ha descrito que la postura de OpenAI cambió de evitar compromisos clasificados a asumirlos con el Sección de Conflagración, calificando el cambio de urgente y más enrevesado que el trabajo preparatorio. Todavía dijo que OpenAI había pasado por detención previamente oportunidades clasificadas que el laboratorio rival Anthropic aceptó.

Leer  El CEO de Intel, Lip-Bu Tan Slams 'softating' burocracia: pone ai al frente y al centro con reorganización de liderazgo: 'quiero enrollar mis mangas ...'

El acuerdo del Pentágono de OpenAI, como se describe cercano con los comentarios de Altman, mantuvo dos barreras intactas al tiempo que agregó medidas operativas como colocar ingenieros de OpenAI en el sitio para observar el comportamiento y la seguridad del maniquí. Altman incluso dijo que la compañía crearía restricciones técnicas destinadas a suministrar los sistemas funcionando internamente de los límites esperados, y que el Sección de Conflagración incluso quería esas protecciones.

Negociaciones sobre seguridad de la IA en medio de un acuerdo con el Pentágono

Esta situación en incremento resalta los enfoques contrastantes de las dos compañías, ya que la negativa de Anthropic a ajustar sus términos llevó a una designación de “peligro de cautiverio de suministro” por parte del Secretario de Defensa, Pete Hegseth, mientras que OpenAI negoció con éxito términos que se alinean con las leyes y políticas estadounidenses existentes. Esta yuxtaposición plantea dudas sobre las implicaciones éticas de la IA en la seguridad doméstico, particularmente en lo que respecta a la vigilancia y el armamento autónomo.

El acuerdo con el Pentágono: un punto de inflexión crítico

Cuando Anthropic se negó a cambiar su posición, el Secretario de Defensa Pete Hegseth calificó a la empresa como un peligro para la cautiverio de suministro, y el presidente Donald Trump ordenó a las agencias y contratistas militares que cortaran los lazos. Anthropic dijo el viernes que estaba “profundamente triste”, calificó la designación de “legalmente errónea” y advirtió que “sentaría un precedente peligroso para cualquier empresa estadounidense que negocie con el gobierno”.

Altman incluso dijo que OpenAI negoció para que condiciones comparables pudieran estar disponibles para otros desarrolladores de IA, no solo para su empresa. Aun así, el resultado dividido sigue siendo claro: OpenAI dice que obtuvo la aplauso de las dos barreras de seguridad, mientras que Anthropic terminó en la registro negra a pesar de describir líneas rojas similares.

Leer  Las acciones de GameStop (GME) se detienen antes de las ganancias: ¿Qué está pasando?

Altman dijo que el Sección de Conflagración consideraba que los principios eran consistentes con las leyes y políticas estadounidenses existentes, y consideró la rápida medida de OpenAI como un intento de evitar lo que consideraba una trayectoria competitiva peligrosa entre los laboratorios de IA. La renuncia de Kalinowski, por el contrario, pone de relieve cómo el talento interno puede reaccionar cuando se percibe que los mismos límites no se han examinado lo suficiente.

El más popular

spot_img