.
Sam Altman, director ejecutivo de OpenAI.
EE.UU.

OpenAI y Anthropic acuerdan colaborar con un instituto para pruebas de seguridad

jueves, 29 de agosto de 2024

Sam Altman, director ejecutivo de OpenAI, fue nombrado como el CEO 2023 según Time.

EE.UU. ha anunciado acuerdos con las principales empresas de inteligencia artificial OpenAI y Anthropic para ayudar a probar y evaluar sus próximas tecnologías

Bloomberg

El Gobierno de EE.UU. ha anunciado acuerdos con las principales empresas de inteligencia artificial OpenAI y Anthropic para ayudar a probar y evaluar sus próximas tecnologías en materia de seguridad. En virtud de estos acuerdos, anunciados el jueves, el Instituto de Seguridad de la Inteligencia Artificial de EE.UU. recibirá acceso anticipado a los principales nuevos modelos de inteligencia artificial de las empresas para evaluar las capacidades y los riesgos, así como colaborar en los métodos para mitigar los posibles problemas.

El Instituto de Seguridad de la IA forma parte del Instituto Nacional de Normas y Tecnología (NIST) del Departamento de Comercio. Los acuerdos llegan en un momento en el que se ha producido un aumento de la presión para mitigar los riesgos potencialmente catastróficos de la IA a través de la regulación, como el controvertido proyecto de ley de seguridad de la IA de California SB 1047, aprobado recientemente por la Asamblea estatal.

"La seguridad es esencial para impulsar la innovación tecnológica de vanguardia", dijo Elizabeth Kelly, directora del Instituto de Seguridad de la IA, en un comunicado. "El grupo trabajará en estrecha colaboración con el Instituto de Seguridad de la IA del Reino Unido para proporcionar información sobre posibles mejoras de la seguridad, según el comunicado. Anteriormente, Anthropic probó su modelo Sonnet 3.5 en coordinación con el Instituto de Seguridad de la IA del Reino Unido antes del lanzamiento de la tecnología. Las organizaciones de EE.UU. y el Reino Unido han afirmado previamente que trabajarán juntas para implantar pruebas estandarizadas.

"Apoyamos firmemente la misión del US AI Safety Institute y esperamos trabajar juntos para informar sobre las mejores prácticas y normas de seguridad para los modelos de IA", dijo Jason Kwon, Director de Estrategia de OpenAI, en un comunicado. "Creemos que el instituto tiene un papel fundamental que desempeñar en la definición del liderazgo de EE.UU. en el desarrollo responsable de la inteligencia artificial y esperamos que nuestro trabajo conjunto ofrezca un marco en el que pueda basarse el resto del mundo", añadió.

"Una IA segura y fiable es crucial para el impacto positivo de la tecnología", afirmó Jack Clark, cofundador y responsable de política de Anthropic. "Esto refuerza nuestra capacidad para identificar y mitigar los riesgos, avanzando en el desarrollo responsable de la IA. Estamos orgullosos de contribuir a este trabajo vital, estableciendo nuevos puntos de referencia para una IA segura y digna de confianza". El US AI Safety Institute se creó en 2023 como parte de la Orden Ejecutiva sobre IA de la administración Biden-Harris, y se encarga de desarrollar las pruebas, evaluaciones y directrices para la innovación responsable de la IA.

Conozca los beneficios exclusivos para
nuestros suscriptores

ACCEDA YA SUSCRÍBASE YA

MÁS DE GLOBOECONOMÍA

Brasil 02/10/2024 Las tasas y monedas obligan fuertes ajustes de inversiones en las empresas de Brasil

Algunas empresas empezaron los ajustes, cuando los operadores empezaron a prever subidas ante las peores perspectivas de inflación

EE.UU. 02/10/2024 Estados Unidos advierte a Irán en la ONU: "No nos ataquen ni a nosotros ni a Israel"

La entidad de 15 miembros se reunió después de que Israel dio de baja al líder de Hezbolá y subieron las conflagraciones

México 03/10/2024 Gradualidad será clave para destrabar la reducción de la jornada laboral en México

“Estoy segura que lo vamos a lograr, en acuerdo con las y los empleadores iremos alcanzando paulatinamente la semana de 40 horas”, afirmó Sheinbaum