Bitget App
Trading inteligente
Comprar criptoMercadosTradingFuturosRendaCentralMais
Uma Nova Fronteira para a Segurança da IA: Testes Cruzados entre Laboratórios para Unir a Indústria

Uma Nova Fronteira para a Segurança da IA: Testes Cruzados entre Laboratórios para Unir a Indústria

ainvest2025/08/27 19:56
Mostrar original
Por:Coin World

- Ilya Sutskever, da OpenAI, defende testes cruzados entre laboratórios para fortalecer a segurança da IA em meio aos avanços tecnológicos rápidos e aos riscos em toda a indústria. - O piloto do Claude, da Anthropic, baseado em navegador, destaca desafios de segurança como ataques de injeção de prompts, levando ao desenvolvimento de estratégias de mitigação aprimoradas. - Um estudo revela baixa conformidade com compromissos voluntários de segurança por grandes empresas de IA, incluindo a Apple, questionando a eficácia da autorregulação. - A AI Safety Initiative da Cloud Security Alliance oferece estruturas e o RiskRub.

Ilya Sutskever, cofundador e membro do conselho da OpenAI, pediu a implementação de testes cruzados entre laboratórios como uma medida crítica para garantir a segurança dos sistemas de inteligência artificial (IA). Sua declaração surge em meio a preocupações crescentes sobre os riscos associados aos avanços da IA, com líderes do setor enfatizando a necessidade de protocolos de segurança colaborativos e padronizados. O apelo de Sutskever por testes cruzados entre laboratórios está alinhado com esforços mais amplos para fortalecer a segurança da IA e mitigar possíveis danos à medida que a tecnologia continua a evoluir rapidamente [1].

A necessidade de abordagens colaborativas como essa é ressaltada pelos desenvolvimentos recentes na implantação e regulação da IA. Por exemplo, a Anthropic, um dos principais players do setor, lançou um programa piloto para seu assistente de IA, Claude, projetado para operar diretamente nos navegadores dos usuários. Essa iniciativa, que visa aumentar a utilidade da IA ao integrá-la aos fluxos de trabalho digitais centrais, também destacou os desafios significativos de segurança e proteção associados a agentes de IA baseados em navegador. Ataques de injeção de prompt—em que agentes maliciosos manipulam o comportamento da IA por meio da inserção de instruções ocultas—emergiram como um risco chave, levando a Anthropic a implementar estratégias robustas de mitigação, como permissões em nível de site, confirmações de ação e classificadores avançados para detectar padrões suspeitos [2].

Esses riscos não se limitam a empresas individuais. Um estudo recente de pesquisadores de Brown, Harvard e Stanford descobriu que muitas empresas de IA não cumpriram totalmente seus compromissos voluntários de segurança, especialmente após as promessas de segurança de IA do governo Biden em 2023. A Apple, por exemplo, teve um desempenho ruim na avaliação, com evidências de conformidade em apenas um de cada oito compromissos. O estudo destaca as limitações da autorregulação em um setor que evolui rapidamente e levanta questões sobre a eficácia de medidas voluntárias para garantir responsabilidade e segurança [5].

Em resposta a esses desafios, a Cloud Security Alliance (CSA) lançou sua AI Safety Initiative no final de 2023, reunindo líderes do setor, agências governamentais e instituições acadêmicas para desenvolver ferramentas práticas e estruturas para a gestão de riscos em IA. A iniciativa fornece às organizações listas de verificação de prontidão para IA, estruturas de governança e diretrizes de segurança, com o objetivo de alinhar o progresso tecnológico às expectativas regulatórias. Notavelmente, a CSA também introduziu o RiskRubric.ai, um sistema de pontuação que avalia a segurança, transparência e confiabilidade de grandes modelos de linguagem (LLMs), oferecendo às empresas uma abordagem orientada por dados para adoção de IA [4].

Esforços colaborativos para aprimorar a segurança da IA também estão sendo apoiados por um ecossistema crescente de financiadores e programas de subsídios. Organizações como Long-Term Future Fund, Survival and Flourishing Fund e AI Safety Fund estão fornecendo apoio financeiro a pesquisadores, empreendedores e instituições que trabalham na mitigação de riscos da IA. Essas iniciativas visam abordar riscos existenciais de longo prazo, ao mesmo tempo em que promovem a inovação responsável. Além disso, empresas de venture capital como Juniper Ventures e Mythos Ventures estão investindo em startups que desenvolvem ferramentas para melhorar a segurança, conformidade e governança da IA [6].

O apelo por testes cruzados entre laboratórios, defendido por Sutskever, representa um passo fundamental para enfrentar esses desafios sistêmicos. Ao possibilitar padrões compartilhados e avaliações transparentes entre laboratórios de desenvolvimento de IA, o setor pode promover maior confiança e responsabilidade. Essa abordagem é especialmente importante à medida que os sistemas de IA se tornam mais complexos e capazes, exigindo uma frente unificada para avaliar riscos potenciais antes da implantação. OpenAI, Anthropic e outros atores-chave têm a oportunidade—e a responsabilidade—de liderar essa transição, adotando protocolos colaborativos de segurança e estabelecendo um precedente para a inovação responsável em IA [1].

Uma Nova Fronteira para a Segurança da IA: Testes Cruzados entre Laboratórios para Unir a Indústria image 0
0
0

Aviso Legal: o conteúdo deste artigo reflete exclusivamente a opinião do autor e não representa a plataforma. Este artigo não deve servir como referência para a tomada de decisões de investimento.

PoolX: bloqueie e ganhe!
Até 10% de APR - Quanto mais você bloquear, mais poderá ganhar.
Bloquear agora!

Talvez também goste

A verdade econômica: IA sustenta o crescimento sozinha, enquanto as criptomoedas se tornam ativos políticos

O artigo analisa a situação econômica atual, destacando que a IA é o principal motor do crescimento do PIB, enquanto outros setores, como o mercado de trabalho e as finanças das famílias, estão em declínio. A dinâmica do mercado se desvinculou dos fundamentos, e os investimentos em capital de IA tornaram-se essenciais para evitar uma recessão. O aumento da desigualdade de riqueza e o fornecimento de energia são considerados gargalos para o desenvolvimento da IA. No futuro, a IA e as criptomoedas podem se tornar focos principais de ajustes de políticas. Resumo gerado por Mars AI Este resumo foi gerado pelo modelo Mars AI, cuja precisão e completude ainda estão em processo de atualização.

MarsBit2025/12/03 04:36
A verdade econômica: IA sustenta o crescimento sozinha, enquanto as criptomoedas se tornam ativos políticos

Unicórnio de IA Anthropic acelera corrida para IPO, enfrentando diretamente a OpenAI?

A Anthropic está acelerando sua entrada no mercado de capitais, iniciando parcerias com escritórios de advocacia de alto nível, o que é visto como um sinal importante em direção à sua oferta pública inicial. O valor de mercado da empresa já se aproxima de 300 bilhões de dólares, e investidores apostam que ela pode abrir capital antes da OpenAI.

Jin102025/12/03 04:28

Investimento de universidades renomadas também sofre perdas? Na véspera da queda acentuada do bitcoin, Harvard investiu pesadamente com US$ 500 milhões

O fundo de doação da Universidade de Harvard aumentou significativamente sua posição em ETFs de bitcoin no último trimestre, chegando a quase 500 milhões de dólares. No entanto, neste trimestre, o preço do bitcoin caiu mais de 20%, expondo o fundo a um risco significativo de timing de mercado.

ForesightNews2025/12/03 03:32
Investimento de universidades renomadas também sofre perdas? Na véspera da queda acentuada do bitcoin, Harvard investiu pesadamente com US$ 500 milhões

O impacto estrutural do próximo presidente do Federal Reserve na indústria de criptomoedas: mudanças de políticas e remodelação regulatória

A substituição do próximo presidente do Federal Reserve é um fator decisivo para remodelar o ambiente macroeconômico futuro da indústria de criptomoedas.

深潮2025/12/03 03:31
O impacto estrutural do próximo presidente do Federal Reserve na indústria de criptomoedas: mudanças de políticas e remodelação regulatória
© 2025 Bitget