Microsoft, OpenAI, Google e outros prometem IA responsável à Casa Branca

Microsoft, OpenAI, Google e outros prometem IA responsável à Casa Branca

Representantes de sete gigantes da tecnologia – Amazon, Anthropic, Google, Inflection, Meta, Microsoft e OpenAI – se reuniram com o governo Biden-Harris para discutir o desenvolvimento responsável da inteligência artificial. As empresas de tecnologia procuraram assegurar ao governo que estão levando a sério as considerações éticas enquanto correm para progredir na IA.

A reunião da Casa Branca ocorre em meio a crescentes preocupações de que os avanços na IA possam ser mal utilizados ou ter consequências negativas não intencionais.

Poderosos sistemas de IA agora são capazes de gerar texto, imagens, áudio, vídeo e código de maneiras muito convincentes. Embora esta tecnologia prometa muitos benefícios, alguns temem que ela também possa permitir a disseminação de informações erradas e ser usada para manipular as pessoas .

Após a reunião, a Microsoft enfatiza a importância de construir uma IA que seja segura, protegida e benéfica para a sociedade. O objetivo é garantir que seus sistemas de IA sejam justos, confiáveis, confiáveis, inclusivos, transparentes e responsáveis. Para conseguir isso, a empresa estabeleceu princípios e diretrizes para o desenvolvimento de IA .

Em seu blog, a Microsoft declarou :

Ao agir rapidamente, os compromissos da Casa Branca criam uma base para ajudar a garantir que a promessa da IA ​​permaneça à frente de seus riscos. Congratulamo-nos com a liderança do presidente em reunir a indústria de tecnologia para elaborar etapas concretas que ajudarão a tornar a IA mais segura, mais segura e mais benéfica para o público.

O Google também publicou recentemente uma proposta sobre o design de inclusão em sistemas de IA para evitar preconceitos injustos. A empresa acredita em uma abordagem ousada, mas cuidadosa, para a inovação da IA.

A OpenAI enfatizou uma abordagem cautelosa para liberar sua tecnologia e pensar em perigos potenciais. Apesar disso, alguns especialistas da FTC instaram a OpenAI a ser mais transparente sobre suas salvaguardas .

Essas sete empresas líderes em IA estão se comprometendo a:

  • Testes de segurança internos e externos de seus sistemas de IA antes de seu lançamento.
  • Compartilhamento de informações em toda a indústria e com governos, sociedade civil e academia sobre gerenciamento de riscos de IA.
  • Investir em segurança cibernética e salvaguardas contra ameaças internas para proteger pesos de modelos proprietários e inéditos.
  • Facilitar a descoberta de terceiros e relatórios de vulnerabilidades em sistemas de IA.
  • Desenvolver mecanismos técnicos robustos para garantir que os usuários saibam quando o conteúdo é gerado por IA.
  • Relatar publicamente as capacidades, limitações e áreas de uso apropriado e inapropriado de seus sistemas de IA.
  • Priorizando a pesquisa sobre os riscos sociais que os sistemas de IA podem representar
  • Desenvolva e implante sistemas avançados de IA para ajudar a enfrentar os maiores desafios da sociedade.

Enquanto isso, Meta e Microsoft colaboraram na próxima geração do Llama . Em sua postagem no blog, a Microsoft disse que “o Llama 2 foi projetado para permitir que desenvolvedores e organizações criem ferramentas e experiências generativas com IA”.

A Casa Branca deixou claro que deseja trabalhar em estreita colaboração com empresas de tecnologia para promover a inovação responsável da IA. Ele pediu a inclusão de grades de proteção nos sistemas de IA para proteger a privacidade, os direitos civis e a segurança nacional .

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *