MI SELECCIÓN DE NOTICIAS
Noticias personalizadas, de acuerdo a sus temas de interés
EE.UU. ha anunciado acuerdos con las principales empresas de inteligencia artificial OpenAI y Anthropic para ayudar a probar y evaluar sus próximas tecnologías
El Gobierno de EE.UU. ha anunciado acuerdos con las principales empresas de inteligencia artificial OpenAI y Anthropic para ayudar a probar y evaluar sus próximas tecnologías en materia de seguridad. En virtud de estos acuerdos, anunciados el jueves, el Instituto de Seguridad de la Inteligencia Artificial de EE.UU. recibirá acceso anticipado a los principales nuevos modelos de inteligencia artificial de las empresas para evaluar las capacidades y los riesgos, así como colaborar en los métodos para mitigar los posibles problemas.
El Instituto de Seguridad de la IA forma parte del Instituto Nacional de Normas y Tecnología (NIST) del Departamento de Comercio. Los acuerdos llegan en un momento en el que se ha producido un aumento de la presión para mitigar los riesgos potencialmente catastróficos de la IA a través de la regulación, como el controvertido proyecto de ley de seguridad de la IA de California SB 1047, aprobado recientemente por la Asamblea estatal.
"La seguridad es esencial para impulsar la innovación tecnológica de vanguardia", dijo Elizabeth Kelly, directora del Instituto de Seguridad de la IA, en un comunicado. "El grupo trabajará en estrecha colaboración con el Instituto de Seguridad de la IA del Reino Unido para proporcionar información sobre posibles mejoras de la seguridad, según el comunicado. Anteriormente, Anthropic probó su modelo Sonnet 3.5 en coordinación con el Instituto de Seguridad de la IA del Reino Unido antes del lanzamiento de la tecnología. Las organizaciones de EE.UU. y el Reino Unido han afirmado previamente que trabajarán juntas para implantar pruebas estandarizadas.
"Apoyamos firmemente la misión del US AI Safety Institute y esperamos trabajar juntos para informar sobre las mejores prácticas y normas de seguridad para los modelos de IA", dijo Jason Kwon, Director de Estrategia de OpenAI, en un comunicado. "Creemos que el instituto tiene un papel fundamental que desempeñar en la definición del liderazgo de EE.UU. en el desarrollo responsable de la inteligencia artificial y esperamos que nuestro trabajo conjunto ofrezca un marco en el que pueda basarse el resto del mundo", añadió.
"Una IA segura y fiable es crucial para el impacto positivo de la tecnología", afirmó Jack Clark, cofundador y responsable de política de Anthropic. "Esto refuerza nuestra capacidad para identificar y mitigar los riesgos, avanzando en el desarrollo responsable de la IA. Estamos orgullosos de contribuir a este trabajo vital, estableciendo nuevos puntos de referencia para una IA segura y digna de confianza". El US AI Safety Institute se creó en 2023 como parte de la Orden Ejecutiva sobre IA de la administración Biden-Harris, y se encarga de desarrollar las pruebas, evaluaciones y directrices para la innovación responsable de la IA.
Algunas empresas empezaron los ajustes, cuando los operadores empezaron a prever subidas ante las peores perspectivas de inflación
La entidad de 15 miembros se reunió después de que Israel dio de baja al líder de Hezbolá y subieron las conflagraciones
“Estoy segura que lo vamos a lograr, en acuerdo con las y los empleadores iremos alcanzando paulatinamente la semana de 40 horas”, afirmó Sheinbaum