MI SELECCIÓN DE NOTICIAS
Noticias personalizadas, de acuerdo a sus temas de interés
Anthropic
La empresa emergente exigió garantías de que su IA no se utilizaría para la vigilancia masiva de estadounidenses ni para el despliegue de armas autónomas
Anthropic PBC obtuvo una orden judicial que bloqueaba la prohibición impuesta por la administración Trump sobre el uso gubernamental de la tecnología de inteligencia artificial de la compañía, después de que el fabricante del chatbot Claude argumentara que la medida podría costarle miles de millones en pérdidas de ingresos.
La jueza federal Rita F. Lin emitió el jueves una orden judicial preliminar que suspende el plan del gobierno de cortar toda relación con Anthropic mientras se resuelve la disputa legal en el tribunal federal de San Francisco. La jueza cuestionó la justificación del gobierno para la prohibición, afirmando que no parecía estar dirigida a sus declarados intereses de seguridad nacional.
«Si la preocupación radica en la integridad de la cadena de mando operativa, el Departamento de Guerra podría simplemente dejar de usar a Claude», escribió la jueza. «En cambio, estas medidas parecen diseñadas para castigar a Anthropic». Tal acción, escribió, «constituye una clásica represalia ilegal en violación de la Primera Enmienda».
A principios de este mes, la empresa presentó una demanda para bloquear una declaración del Departamento de Defensa que afirmaba que Anthropic representaba una amenaza para la cadena de suministro estadounidense, intensificando así una disputa de alto riesgo sobre las medidas de seguridad relativas a la tecnología de IA utilizada por el ejército.
La empresa emergente exigió garantías de que su IA no se utilizaría para la vigilancia masiva de estadounidenses ni para el despliegue de armas autónomas, mientras que el gobierno alegó seguridad nacional para argumentar que no podía aceptar ninguna restricción.
Lin afirmó que el Departamento de Justicia no tenía ninguna "base legítima" para determinar que la firme postura de Anthropic con respecto a las restricciones en el uso de su tecnología de IA pudiera llevarla a "convertirse en un saboteador".
Un portavoz de Anthropic no respondió de inmediato a la solicitud de comentarios.
El caso es Anthropic v. US Department of War, 26-cv-01996 , Tribunal de Distrito de los Estados Unidos, Distrito Norte de California (San Francisco).
El resultado, que los usuarios deberán pegar en la configuración de Gemini, se utilizará para "poner rápidamente a Gemini al día con lo que más te importa", según Google
El fuerte aumento de los costos energéticos provocado por el conflicto en Medio Oriente está alimentando temores de otro repunte inflacionario como el de hace cuatro años
El subsecretario de Estado para Asuntos Económicos, Jacob Helberg, declaró el lunes que Estados Unidos administrará el consorcio