Anthropic recusa Pentágono e perde contrato de US$200M para OpenAI
A Anthropic foi classificada como risco na cadeia de suprimentos do Pentágono após recusar dar controle militar sobre seus modelos de IA, incluindo uso em armas
Anthropic recusa Pentágono e perde contrato de US$200M para OpenAI
A Anthropic foi classificada como risco na cadeia de suprimentos do Pentágono após recusar dar controle militar sobre seus modelos de IA, incluindo uso em armas autônomas. A OpenAI aceitou o contrato, mas viu desinstalações do ChatGPT subirem 295%. O debate sobre ética em IA corporativa está esquentando.
Por que isso importa pra voce?
Profissionais podem usar esse caso para argumentar sobre governança e ética de IA nas suas empresas, ou entender como posicionar-se em discussões sobre uso responsável de tecnologia.
Fonte original: TechCrunch AI
Este artigo foi gerado automaticamente pelo AI Digest a partir de multiplas fontes e curado por nossa equipe.
Fonte original
techcrunch.com