Google, Meta e OpenAI firmam compromisso para identificar conteúdos gerados por Inteligência Artificial, diz governo dos EUA

Google, Meta e OpenAI firmam compromisso para identificar conteúdos gerados por Inteligência Artificial, diz governo dos EUA

As principais empresas de Inteligência Artificial (IA), como a OpenAI, Google e Meta, assumiram compromissos com a Casa Branca para implementar medidas que identifiquem o conteúdo gerado por IA, informou o governo dos Estados Unidos, nesta sexta-feira (21).

O presidente Joe Biden recebe, nesta sexta-feira (21), executivos de empresas de tecnologia.

As medidas podem incluir, por exemplo, a inserção de marcas d'água em textos, imagens, áudios e vídeos gerado por IA.

As empresas – que também incluem a Anthropic, Inflection e Amazon – se comprometeram a testar os sistemas antes de lançá-los e compartilhar informações sobre como reduzir riscos e investir em segurança cibernética.

A medida é vista como uma vitória do governo Biden para regulamentar tecnologias de inteligência artificial, que experimentou recentemente um boom de investimentos das empresas.

 

Bard, o 'ChatGPT do Google', é lançado no Brasil

 

Regulação nos EUA

 

Desde que a IA se popularizou no mundo, especialmente após o surgimento do ChatGPT, legisladores de todo o mundo começaram a considerar como mitigar os perigos da tecnologia para a segurança nacional e a economia.

O líder do Senado nos EUA, Chuck Schumer, pediu em junho uma "legislação abrangente" para avançar e garantir salvaguardas para a inteligência artificial.

O Congresso está considerando um projeto de lei para exigir que anúncios políticos revelem se a IA foi usada para criar imagens ou outro conteúdo.

 

O presidente Joe Biden também está trabalhando no desenvolvimento de uma ordem executiva e legislação bipartidária sobre tecnologia de IA.

 

Sistema para 'marca d'água'

 

Como parte do esforço, as empresas se comprometeram a desenvolver um sistema de "marca d'água" que deve ser usado em diferentes formas de conteúdo, desde texto, imagens, áudios e até vídeos gerados por IA, para que os usuários saibam quando a tecnologia foi usada.

Essa marca d'água, provavelmente, tornará mais fácil para os usuários identificar imagens ou áudios deep-fake que podem, por exemplo, mostrar um ato de violência que não ocorreu, criar um golpe ou distorcer uma foto de um político.

Não está claro como a marca d'água ficará evidente no compartilhamento das informações.

As empresas também se comprometeram a se concentrar em proteger a privacidade dos usuários à medida que a IA se desenvolve e em garantir que a tecnologia não seja usada para discriminar grupos vulneráveis.

Outros compromissos incluem o desenvolvimento de soluções de IA para problemas científicos, como pesquisa médica e mitigação das mudanças climáticas.

 

Fonte: https://g1.globo.com/tecnologia/noticia/2023/07/21/google-meta-e-openai-firmam-compromisso-para-identificar-conteudos-gerados-por-inteligencia-artificial-diz-governo-dos-eua.ghtml