Notícias
Gigantes da tecnologia criam grupo de IA para reduzir os riscos
O Google, a Anthropic, a Microsoft e a OpenAI (criadora do ChatGPT), empresas líderes dos Estados Unidos no segmento da inteligência artificial (IA), anunciaram a criação do grupo Frontier Model Forum, que atuará para minimizar os riscos da IA e apoiar as normas do setor.
A formação do novo grupo do setor visa além do enfrentamento dos riscos da tecnologia também o comprometimento em partilhar as melhores práticas entre si, com legisladores e investigadores. “Os modelos Frontier se referem a plataformas que levam a IA a novos níveis de sofisticação, incluindo recursos que podem ser perigosos. As empresas que criam tecnologia IA têm a responsabilidade de garantir que esta é segura, protegida e permanece sob controle humano. Esta iniciativa é um passo vital para reunir o setor de tecnologia no avanço da IA de forma responsável e enfrentar os desafios, para que toda a humanidade possa beneficiar", disse em um comunicado o presidente da Microsoft, Brad Smith.
O presidente norte-americano, Joe Biden, reiterou sobre os ‘enormes’ riscos e promessas da IA numa recente reunião na Casa Branca, com líderes tecnológicos que se compromissaram a proteger a tecnologia, desde ciberataques a fraudes, à medida que o setor for crescendo. Juntamente com os representantes da Amazon, Anthropic, Google, Inflection, Meta, Microsoft e OpenAI, Biden assegurou que as empresas se dispuseram em orientar a inovação responsável, à medida que a IA se espalha cada vez mais pelas vidas pessoais e empresariais da população. Os sete gigantes tecnológicos se comprometeram com uma série de ações, que a Casa Branca resumiu como "três princípios que devem ser fundamentais para o futuro da IA: segurança, proteção e confiança".
De acordo com os criadores do grupo, os principais objetivos do Frontier Model Forum incluem minimizar os riscos e permitir avaliações de segurança independentes de plataformas de IA, assim como apoiar o desenvolvimento de aplicações destinadas a enfrentar desafios como as alterações climáticas, a prevenção do câncer e as ameaças cibernáuticas. As empresas concordaram também em desenvolver mecanismos técnicos, como sistemas de marcas de água, para garantir que os utilizadores saibam quando o conteúdo é produzido por inteligência artificial, em vez de humanos.
"As tecnologias avançadas de IA possuem o potencial de beneficiar profundamente a sociedade, e a capacidade de atingir esse potencial requer supervisão. É vital que as empresas de IA, especialmente aquelas que trabalham em modelos mais poderosos, se alinhem em terreno comum e promovam práticas de segurança ponderadas e adaptáveis, destacou a vice-presidente de assuntos globais da OpenAI, Anna Makanju.
WhatsApp
Receba notícias do Em Tempo Notícias no seu WhatsApp e fique por dentro de tudo! Basta acessar a nossa comunidade:
https://chat.whatsapp.com/K8GQKWpW3KDKK8i88MtzsuComentários
Os comentários são de inteira responsabilidade dos autores, não representando em qualquer instância a opinião do Em tempo Notícias ou de seus colaboradores.
últimas
-
INVESTIGAÇÃO
PM é preso por morte de enfermeiro em motel no interior de Alagoas
-
Cerimônia no palácio
Governador entrega CNH aos primeiros aprovados no Programa CNH do Trabalhador nesta terça-feira (16)
-
Hipótese de duplo homicídio
Diretor Rob Reiner e sua mulher são encontrados mortos em Los Angeles
-
Combate ao crime
Polícia desarticula ação e prende quatro suspeitos com seis armas de fogo em Maceió
-
Prefeito Luciano Barbosa prestigiou
Mais de mil agentes de saúde e de endemias recebem diploma em Arapiraca



