Uma Nova Fronteira para a Segurança da IA: Testes Cruzados entre Laboratórios para Unir a Indústria
- Ilya Sutskever, da OpenAI, defende testes cruzados entre laboratórios para fortalecer a segurança da IA em meio aos avanços tecnológicos rápidos e aos riscos em toda a indústria. - O piloto do Claude, da Anthropic, baseado em navegador, destaca desafios de segurança como ataques de injeção de prompts, levando ao desenvolvimento de estratégias de mitigação aprimoradas. - Um estudo revela baixa conformidade com compromissos voluntários de segurança por grandes empresas de IA, incluindo a Apple, questionando a eficácia da autorregulação. - A AI Safety Initiative da Cloud Security Alliance oferece estruturas e o RiskRub.
Ilya Sutskever, cofundador e membro do conselho da OpenAI, pediu a implementação de testes cruzados entre laboratórios como uma medida crítica para garantir a segurança dos sistemas de inteligência artificial (IA). Sua declaração surge em meio a preocupações crescentes sobre os riscos associados aos avanços da IA, com líderes do setor enfatizando a necessidade de protocolos de segurança colaborativos e padronizados. O apelo de Sutskever por testes cruzados entre laboratórios está alinhado com esforços mais amplos para fortalecer a segurança da IA e mitigar possíveis danos à medida que a tecnologia continua a evoluir rapidamente [1].
A necessidade de abordagens colaborativas como essa é ressaltada pelos desenvolvimentos recentes na implantação e regulação da IA. Por exemplo, a Anthropic, um dos principais players do setor, lançou um programa piloto para seu assistente de IA, Claude, projetado para operar diretamente nos navegadores dos usuários. Essa iniciativa, que visa aumentar a utilidade da IA ao integrá-la aos fluxos de trabalho digitais centrais, também destacou os desafios significativos de segurança e proteção associados a agentes de IA baseados em navegador. Ataques de injeção de prompt—em que agentes maliciosos manipulam o comportamento da IA por meio da inserção de instruções ocultas—emergiram como um risco chave, levando a Anthropic a implementar estratégias robustas de mitigação, como permissões em nível de site, confirmações de ação e classificadores avançados para detectar padrões suspeitos [2].
Esses riscos não se limitam a empresas individuais. Um estudo recente de pesquisadores de Brown, Harvard e Stanford descobriu que muitas empresas de IA não cumpriram totalmente seus compromissos voluntários de segurança, especialmente após as promessas de segurança de IA do governo Biden em 2023. A Apple, por exemplo, teve um desempenho ruim na avaliação, com evidências de conformidade em apenas um de cada oito compromissos. O estudo destaca as limitações da autorregulação em um setor que evolui rapidamente e levanta questões sobre a eficácia de medidas voluntárias para garantir responsabilidade e segurança [5].
Em resposta a esses desafios, a Cloud Security Alliance (CSA) lançou sua AI Safety Initiative no final de 2023, reunindo líderes do setor, agências governamentais e instituições acadêmicas para desenvolver ferramentas práticas e estruturas para a gestão de riscos em IA. A iniciativa fornece às organizações listas de verificação de prontidão para IA, estruturas de governança e diretrizes de segurança, com o objetivo de alinhar o progresso tecnológico às expectativas regulatórias. Notavelmente, a CSA também introduziu o RiskRubric.ai, um sistema de pontuação que avalia a segurança, transparência e confiabilidade de grandes modelos de linguagem (LLMs), oferecendo às empresas uma abordagem orientada por dados para adoção de IA [4].
Esforços colaborativos para aprimorar a segurança da IA também estão sendo apoiados por um ecossistema crescente de financiadores e programas de subsídios. Organizações como Long-Term Future Fund, Survival and Flourishing Fund e AI Safety Fund estão fornecendo apoio financeiro a pesquisadores, empreendedores e instituições que trabalham na mitigação de riscos da IA. Essas iniciativas visam abordar riscos existenciais de longo prazo, ao mesmo tempo em que promovem a inovação responsável. Além disso, empresas de venture capital como Juniper Ventures e Mythos Ventures estão investindo em startups que desenvolvem ferramentas para melhorar a segurança, conformidade e governança da IA [6].
O apelo por testes cruzados entre laboratórios, defendido por Sutskever, representa um passo fundamental para enfrentar esses desafios sistêmicos. Ao possibilitar padrões compartilhados e avaliações transparentes entre laboratórios de desenvolvimento de IA, o setor pode promover maior confiança e responsabilidade. Essa abordagem é especialmente importante à medida que os sistemas de IA se tornam mais complexos e capazes, exigindo uma frente unificada para avaliar riscos potenciais antes da implantação. OpenAI, Anthropic e outros atores-chave têm a oportunidade—e a responsabilidade—de liderar essa transição, adotando protocolos colaborativos de segurança e estabelecendo um precedente para a inovação responsável em IA [1].

Aviso Legal: o conteúdo deste artigo reflete exclusivamente a opinião do autor e não representa a plataforma. Este artigo não deve servir como referência para a tomada de decisões de investimento.
Talvez também goste
OCDE alerta que a maioria dos investidores em criptomoedas enfrenta altos riscos devido à baixa alfabetização
A OCDE afirma que a maioria dos adultos que conhecem ou possuem criptomoedas apresenta habilidades financeiras e digitais fracas. Muitos investidores não entendem que criptomoedas não são moeda legal ou que as perdas geralmente são permanentes. A OCDE pede que os governos ensinem educação financeira e estabeleçam proteções mais fortes para pequenos investidores.

Administração Trump considera licença anual para Samsung e SK Hynix operarem fábricas de chips na China
Os Estados Unidos estão considerando a implementação de “licenças de local” anuais para que Samsung e SK Hynix possam exportar insumos para fabricação de chips às suas fábricas na China. O novo sistema exigiria aprovações anuais com quantidades exatas de remessas. A Coreia do Sul recebeu o compromisso de forma positiva, mas autoridades expressaram preocupação com possíveis interrupções no fornecimento e aumento das exigências regulatórias.
Metaplanet adiciona 136 BTC ao tesouro em estratégia contínua de Bitcoin
A Metaplanet comprou mais 136 BTC a um preço médio de aproximadamente 111.666 por Bitcoin. A mais recente aquisição da empresa eleva seus holdings totais de Bitcoin para 20.136 BTC, com um preço médio de cerca de 15,1 milhões de ienes por BTC. A Metaplanet planeja levantar US$880 milhões para emitir até 555 milhões de novas ações direcionadas à compra de BTC.
Bittensor (TAO) a US$ 1.000? Veja o que um analista de criptomoedas pensa
TAO se recuperou e está sendo negociado em torno da média móvel exponencial de 20 dias (EMA de 20 dias). Romper acima da EMA de 20 dias pode desencadear o impulso de alta do TAO. Um analista de criptomoedas acredita que o TAO tem potencial para atingir US$1.000.

Populares
MaisPreços de criptomoedas
Mais








