Skip to content

Ajudante Digital encerra temporada debatendo Inteligência Artificial

Nesta segunda-feira (9), a coluna Ajudante Digital encerrou sua primeira temporada com um episódio dedicado à Inteligência Artificial (IA). O tema ganhou mais atenção no noticiário em meio às recentes discussões no Senado Federal, que aprovou um marco regulatório de IA e agora leva a proposta à análise da Câmara dos Deputados.

Veiculada semanalmente na Rádio Nacional e conduzida por Leyberson Pedrosa, a coluna explorou os principais tipos de IA, suas aplicações no cotidiano e trouxe à tona reflexões sobre os limites éticos e o uso consciente dessa tecnologia em um momento em que o Congresso debate diretrizes e responsabilidades para desenvolvedores e usuários.

Contexto histórico e tipos de IA

O último episódio deste ano revisitou a história da Inteligência Artificial, destacando os precursores que moldaram essa área. Entre eles, o matemático Alan Turing, que em 1950 propôs o famoso Teste de Turing para avaliar a habilidade de uma máquina em simular a inteligência humana, e o cientista John McCarthy, que cunhou o termo “inteligência artificial” em 1956.

Em um cenário marcado pela rápida evolução da IA e pelas novas discussões legislativas no Congresso Nacional, as contribuições desses pioneiros mostram a importância de equilibrar inovação tecnológica com diretrizes claras de regulação e respeito aos direitos fundamentais.

No episódio, o público conheceu as principais categorias de IA: a que se baseia em regras, operando com respostas pré-programadas — como em sistemas automatizados de atendimento ao cliente; a que utiliza redes neurais, capaz de aprender a partir de grandes volumes de dados e ajustar suas conexões internas para desvendar padrões complexos; e, por fim, a IA generativa, voltada à criação de conteúdos originais, como textos, imagens e vídeos, a partir das informações já disponíveis.

Mesmo com os avanços, a coluna reforça que as máquinas não pensam nem sentem. Elas apenas processam dados e simulam decisões com base em padrões preexistentes. A mensagem final do episódio ressalta que o verdadeiro potencial da IA está no uso criativo por parte das pessoas.

Sobre o Ajudante Digital

A coluna Ajudante Digital é um espaço semanal que apresenta dicas práticas e informações acessíveis sobre tecnologia. Com linguagem leve e exemplos do cotidiano, Leyberson Pedrosa, auxiliado por vozes digitais, descomplica temas como segurança digital, ferramentas tecnológicas e inovações que impactam diretamente a vida dos ouvintes.

Com o encerramento da primeira temporada, o Ajudante Digital se despede após 10 episódios, trazendo conteúdo relevante para quem quer explorar melhor o universo da tecnologia. A coluna retorna em 2025 com novos temas e abordagens.

Os episódios estão disponíveis no canal do Ajudante Digital no Spotify e podem ser baixados no site da RadioAgência Nacional, onde é possível encontrar a transcrição completa e os links para os conteúdos citados em cada edição.

Para sugerir temas ou enviar dúvidas, os ouvintes podem entrar em contato pelo WhatsApp (11) 97469-0138.

Ajudante Digital encerra temporada debatendo Inteligência Artificial

Nesta segunda-feira (9), a coluna Ajudante Digital encerrou sua primeira temporada com um episódio dedicado à Inteligência Artificial (IA). O tema ganhou mais atenção no noticiário em meio às recentes discussões no Senado Federal, que aprovou um marco regulatório de IA e agora leva a proposta à análise da Câmara dos Deputados.

Veiculada semanalmente na Rádio Nacional e conduzida por Leyberson Pedrosa, a coluna explorou os principais tipos de IA, suas aplicações no cotidiano e trouxe à tona reflexões sobre os limites éticos e o uso consciente dessa tecnologia em um momento em que o Congresso debate diretrizes e responsabilidades para desenvolvedores e usuários.

Contexto histórico e tipos de IA

O último episódio deste ano revisitou a história da Inteligência Artificial, destacando os precursores que moldaram essa área. Entre eles, o matemático Alan Turing, que em 1950 propôs o famoso Teste de Turing para avaliar a habilidade de uma máquina em simular a inteligência humana, e o cientista John McCarthy, que cunhou o termo “inteligência artificial” em 1956.

Em um cenário marcado pela rápida evolução da IA e pelas novas discussões legislativas no Congresso Nacional, as contribuições desses pioneiros mostram a importância de equilibrar inovação tecnológica com diretrizes claras de regulação e respeito aos direitos fundamentais.

No episódio, o público conheceu as principais categorias de IA: a que se baseia em regras, operando com respostas pré-programadas — como em sistemas automatizados de atendimento ao cliente; a que utiliza redes neurais, capaz de aprender a partir de grandes volumes de dados e ajustar suas conexões internas para desvendar padrões complexos; e, por fim, a IA generativa, voltada à criação de conteúdos originais, como textos, imagens e vídeos, a partir das informações já disponíveis.

Mesmo com os avanços, a coluna reforça que as máquinas não pensam nem sentem. Elas apenas processam dados e simulam decisões com base em padrões preexistentes. A mensagem final do episódio ressalta que o verdadeiro potencial da IA está no uso criativo por parte das pessoas.

Sobre o Ajudante Digital

A coluna Ajudante Digital é um espaço semanal que apresenta dicas práticas e informações acessíveis sobre tecnologia. Com linguagem leve e exemplos do cotidiano, Leyberson Pedrosa, auxiliado por vozes digitais, descomplica temas como segurança digital, ferramentas tecnológicas e inovações que impactam diretamente a vida dos ouvintes.

Com o encerramento da primeira temporada, o Ajudante Digital se despede após 10 episódios, trazendo conteúdo relevante para quem quer explorar melhor o universo da tecnologia. A coluna retorna em 2025 com novos temas e abordagens.

Os episódios estão disponíveis no canal do Ajudante Digital no Spotify e podem ser baixados no site da RadioAgência Nacional, onde é possível encontrar a transcrição completa e os links para os conteúdos citados em cada edição.

Para sugerir temas ou enviar dúvidas, os ouvintes podem entrar em contato pelo WhatsApp (11) 97469-0138.

Senado aprova regras para uso da inteligência artificial

O Plenário do Senado aprovou nesta terça-feira (10) o marco regulatório para uso da inteligência artificial no país. O texto segue agora para votação na Câmara dos Deputados.

O projeto estabelece os princípios fundamentais para o desenvolvimento e uso de IA. Ele define que a tecnologia deve ser transparente, segura, confiável, ética, livre de vieses discriminatórios, respeitando os direitos humanos e valores democráticos. O projeto exige também que sejam contemplados o desenvolvimento tecnológico, a inovação, a livre iniciativa e a livre concorrência.

Além de enumerar os sistemas de IA considerados de alto risco, o projeto proíbe o desenvolvimento de alguns tipos de tecnologias de IA que causem danos à saúde, à segurança ou a outros direitos fundamentais.

O texto, por exemplo, veda que o Poder Público crie sistemas que classifiquem ou ranqueie pessoas com base no comportamento social para acesso a bens e serviços ou a políticas públicas “de forma ilegítima ou desproporcional” ou de sistemas de IA que facilite o abuso ou exploração sexual de crianças e adolescentes.

Alto risco

O projeto define ainda como sistemas de IA de alto risco aqueles que podem causar danos às pessoas ou à sociedade, como os de controle de trânsito, de redes de abastecimento de água e eletricidade.

Também são considerados sistemas de IA de alto risco aqueles aplicados na educação e formação profissionais para determinar acesso à instituição de ensino ou de monitoramento de estudantes, além dos sistemas usados para recrutamento de trabalhadores ou para promoções no trabalho. 

Sistemas de IA de “repartição de tarefas e controle e avaliação do desempenho e do comportamento das pessoas nas áreas de emprego, gestão de trabalhadores e acesso ao emprego por conta própria” também são considerados de alto risco.

Outros exemplos são sistemas de IA para avaliação de prioridades em serviços públicos essenciais, como bombeiros e assistência médica. Também são citados no texto os sistemas de inteligência artificial usados pela Justiça para investigação de crimes, ou que tenham risco para as liberdades individuais ou ao Estado Democrático de Direito.

Os sistemas de IA na área da saúde, como para auxiliar no diagnóstico e procedimentos médicos, e para o desenvolvimento de veículos autônomos em espaços públicos são outros exemplos de sistemas de alto risco de inteligência artificial listados pelo projeto.

Big techs

Durante a tramitação no Senado, foi retirado o dispositivo que considerava como sendo de alto risco os sistemas de IA usados pelas plataformas digitais, as chamadas big techs, para produção, análise, recomendação e distribuição de conteúdos.

De acordo com o relator, senador Eduardo Gomes (PL-TO), a retirada desse trecho foi um acordo entre as bancadas para fazer o projeto de lei 2.338 de 2023, de autoria do presidente do Senado, Rodrigo Pacheco (PSD-MG), avançar na votação.

O texto foi aprovado em votação simbólica na comissão temporária criada para analisar o tema.

* Com informações da Agência Senado

Big tech é excluída do rol de Inteligência Artificial de alto risco

O dispositivo que considerava como sendo de alto risco os sistemas de Inteligência Artificial (IA) usados pelas plataformas digitais, as chamadas big techs, para produção, análise, recomendação e distribuição de conteúdos foi excluído, nesta terça-feira (3), do projeto de lei que regula a IA no Brasil.

São considerados de alto risco os sistemas de IA que podem causar danos às pessoas ou à sociedade. De acordo com o relator, senador Eduardo Gomes (PL-TO), a retirada desse trecho foi um acordo entre as bancadas para fazer o texto avançar na Comissão Especial do Senado criada para analisar o tema.

O projeto de lei 2.338 de 2023, de autoria do presidente do Senado, Rodrigo Pacheco (PSD-MG), determina que sistemas de IA considerados de alto risco devem ser submetidos a regras mais rígidas de governança, monitoramento e fiscalização.

O texto define como de alto risco uma série de casos, entre eles, os sistemas de inteligência artificial que impactam na saúde e segurança das pessoas, como no diagnóstico médico, ou os que podem ser usados para seleção de trabalhadores em empregos, para a seleção de estudantes em instituição de ensino ou no atendimento de serviços públicos.

O trecho que se referia às big techs afirmava que seria considerada uma IA de alto risco o sistema de “produção, curadoria, difusão, recomendação e distribuição, em grande escala e significativamente automatizada, de conteúdo por provedores de aplicação, com objetivo de maximização do tempo de uso e engajamento das pessoas ou grupos afetados”.

A coordenadora de incidência da organização Repórter Sem Fronteiras na América Latina, Bia Barbosa, que tem pressionado para a aprovação do projeto, avaliou que o trecho foi retirado por pressão das plataformas digitais .

“Não faz nenhum sentido um projeto de lei de regulação de IA que não trate dos sistemas de recomendação e moderação de conteúdo, que são sistemas de alto risco. Só que as plataformas, assim como fazem em todos os países do mundo, se opõem de maneira significativa a qualquer regulação que venha afetar os seus negócios e, aqui no Brasil, elas têm um aliado muito significativo, que são os parlamentares de extrema-direita”, destacou a especialista.

Barbosa citou a desinformação em massa em eleições, na pandemia de Covi-19 e os ataques à democracia por meio das redes socais como exemplos de danos que os sistemas de recomendação de conteúdos via IA das plataformas podem causar às pessoas e à sociedade.

Apesar dessa mudança, foi adiada para a próxima quinta-feira (5) a votação do projeto na Comissão. Existia a expectativa que o tema fosse aprovado nesta terça-feira. O adiamento ocorreu porque não houve consenso entre os parlamentares em relação aos trechos que exigem a integridade da informação para sistemas de IA.

Projeto

O projeto que regulamenta a inteligência artificial no Brasil também estabelece os princípios fundamentais para o desenvolvimento e uso de IA. Ele define que a tecnologia deve ser transparente, segura, confiável, ética, livre de vieses discriminatórios, respeitando os direitos humanos e valores democráticos. O projeto exige também que sejam contemplados o desenvolvimento tecnológico, a inovação, a livre iniciativa e a livre concorrência.

Além de enumerar os sistemas de IA considerados de alto risco, o projeto proíbe o desenvolvimento de alguns tipos de tecnologias de IA que causem danos à saúde, à segurança ou a outros direitos fundamentais.

O projeto proíbe, por exemplo, que o poder público crie sistemas que classifiquem ou ranqueie pessoas com base no comportamento social para acesso a bens e serviços ou a políticas públicas “de forma ilegítima ou desproporcional” ou de sistemas de IA que facilite o abuso ou exploração sexual de crianças e adolescentes.

Alto risco

De acordo com o artigo 14 do projeto, são considerados sistemas de alto risco aqueles de controle de trânsito, de redes de abastecimento de água, eletricidade e “quando houver risco relevante à integridade física das pessoas”.

Também são considerados sistemas de IA de alto risco aqueles aplicados na educação e formação profissionais para determinar acesso à instituição de ensino ou de monitoramento de estudantes, além dos sistemas usados para recrutamento de trabalhadores ou para promoções no trabalho. 

Sistemas de IA de “repartição de tarefas e controle e avaliação do desempenho e do comportamento das pessoas nas áreas de emprego, gestão de trabalhadores e acesso ao emprego por conta própria” também são considerados de alto risco.

Outros exemplos são sistemas de IA para avaliação de prioridades em serviços públicos essenciais, como bombeiros e assistência médica. Também são citados no texto os sistemas de inteligência artificial usados pela Justiça para investigação de crimes, ou que tenham risco para as liberdades individuais ou ao Estado democrático de direito.

Os sistemas de IA na área da saúde, como para auxiliar no diagnóstico e procedimentos médicos, e para o desenvolvimento de veículos autônomos em espaços públicos são outros exemplos de sistemas de alto risco de inteligência artificial listados pelo projeto.

G20 pretende criar força-tarefa para discutir inteligência artificial

O documento final da Cúpula de Líderes do G20, grupo das 19 maiores economias do planeta, mais União Europeia e União Africana, prevê a criação de uma força-tarefa ou uma “iniciativa de alto nível” para discutir o uso da inteligência artificial (IA). Segundo o texto, caberá à presidência da África do Sul, que assumirá o comando do grupo nesta terça-feira (19), tentar estabelecer diretrizes para a tecnologia.

Segundo o comunicado, emitido no início da noite desta segunda-feira (18), a força-tarefa ou iniciativa de alto nível dará continuidade ao grupo de trabalho de economia digital do G20. Durante a presidência brasileira no grupo, os ministros do Trabalho e Emprego do G20 concordaram em estabelecer diretrizes para o desenvolvimento da inteligência artificial.

Rio de Janeiro (RJ), 18/11/2024 – Mesa de abertura do G20, no MAM, na zona central da capital fluminense. Foto: Tomaz Silva/Agência Brasil

Sem citar a palavra “regulação”, a redação acertada após intensas negociações diplomáticas, o documento final do G20 destacou “preocupações éticas e riscos” no uso da IA.

“Nós reconhecemos que o desenvolvimento, a implantação e o uso de tecnologias emergentes, incluindo a inteligência artificial, podem oferecer muitas oportunidades aos trabalhadores, mas também representam preocupações éticas e riscos para os seus direitos e bem-estar”, ressaltou o texto.

Entre os dilemas apresentados, está um possível aumento da desigualdade global provocada pelo desenvolvimento diferente das capacidades digitais entre os países. O documento também mencionou a necessidade de reduzir a desigualdade digital de gênero nos próximos seis anos e incluir trabalhadores vulneráveis à evolução tecnológica.

A IA, ressaltou o comunicado, precisa respeitar a privacidade, a segurança dos dados e a propriedade intelectual.

“À medida que a IA e outras tecnologias continuam a evoluir, também é necessário superar as divisões digitais, incluindo reduzir pela metade a divisão digital de gênero até 2030, priorizar a inclusão de pessoas em situações vulneráveis no mercado de trabalho, bem como garantir o respeito justo pela propriedade intelectual, proteção de dados, privacidade e segurança”, mencionou o comunicado.

Governo lança laboratório para exploração de inteligência artificial

O governo federal firmou uma parceria com o distrito de inovação Porto Digital para a  exploração da inteligência artificial no âmbito da gestão pública. O termo foi firmado por meio da Escola Nacional de Administração Pública (Enap) nesta quarta-feira (30), durante a Semana Nacional de Inovação, em Brasília. 

A primeira iniciativa será a criação do Laboratório de Inovação em Projetos e Produtos de Inteligência Artificial (LIIA) que contará com R$ 8 milhões em recursos. O laboratório vai atuar em quatro principais linhas de ação: prospecção de projetos de inovação em IA; execução de projetos de inovação de IA; aceleração e incubação de soluções de IA; e promoção de cultura, conhecimento e comunidade de IA no governo. 

Até 2029, devem ser captados mais R$ 21,7 milhões para impulsionar o laboratório com foco em parcerias público-privadas A ideia é desenvolver e implementar cerca de 50 projetos de IA nos próximos cinco anos. 

Para o presidente do Porto Digital, Pierre Lucena, a inteligência artificial pode auxiliar na gestão governamental em várias frentes, como na melhoria da produtividade. “Há milhões de possibilidades de melhorias que podem ser trabalhadas dentro desse laboratório com produtos a serem feitos dentro dele”, disse Lucena à Agência Brasil. 

Outra vantagem é a melhoria das políticas públicas com o uso da Inteligência Artificial. “O governo tem uma capacidade gigante de acúmulo de dados que podem ser trabalhados para melhoria de políticas públicas”, diz. 

Segundo a Enap, o LIIA dará suporte ao desenvolvimento de soluções de IA do governo federal para tomadas de decisão assertivas e baseadas em evidência, com análise de big data, construção de cenários preditivos, foco na ética e especial atenção à mitigação de riscos.

“Poderemos ter uma estrutura dedicada à solução de problemas digitais. Será um movimento bastante interessante no governo e que o ajudará a se aproximar da população”, disse a presidenta da Enap, Betânia Lemos. 

A parceria do governo com o Porto Digital surge no contexto do Plano Brasileiro de Inteligência Artificial (PBIA), que tem como objetivo transformar o país em referência mundial em inovação e eficiência no uso da inteligência artificial, especialmente no setor público. A iniciativa conta com apoio da Dataprev, Financiadora de Estudos e Projetos (Finep), Serviço Federal de Processamento de Dados (Serpro) e o Ministério da Gestão e Inovação.

Localizado em Recife, o Porto Digital é o principal distrito de inovação da América Latina e conta atualmente com mais de 18 mil colaboradores distribuídos em mais de 415 empresas, gerando um faturamento anual de R$ 5,4 bilhões.

MEC busca formas de usar inteligência artificial em políticas públicas

Pesquisadores e gestores públicos debateram esta semana a utilização da inteligência artificial e a governança de dados nas políticas públicas da educação. O seminário Educação, Governança de Dados e Inteligência Artificial, promovido pelo Ministério da Educação, buscou apontar alternativas para o gerenciamento de informações que garantem direitos e o uso de dados na tomada de decisões. O evento foi realizado em parceria com a Universidade Federal de Alagoas (UFAL) e o Instituto Federal de Brasília (IFB). 

Se analisados em tempo real, por exemplo, dados como a frequência em aulas podem ser usados para auxiliar uma instituição de ensino a tomar medidas necessárias para apoiar estudantes, garantindo a permanência dos alunos e o acesso à educação.

A diretora de Apoio à Gestão Educacional da Secretaria de Educação Básica (SEB), Anita Gea Martinez Stefani, afirma que um dos desafios é conseguir documentos como o histórico escolar da educação básica para alunos que estudaram em mais de uma instituição, demonstrando a necessidade de atualizar a forma que os dados são tratados na rede de educação como um todo.

“Quando falamos sobre interação e interoperabilidade de dados e conexão das informações, estamos falando sobre fornecer direitos, serviços públicos que já poderiam estar disponíveis, mas que tecnicamente a gente ainda não se organizou para disponibilizar para os cidadãos”, ressalta a diretora.

Para lidar com a demanda de atualização dos métodos usados atualmente, foi criado o Gestão Presente, um hub educacional (plataforma de armazenamento e organização de dados). O sistema foi desenvolvido em parceria do MEC e com o Núcleo de Excelência em Tecnologias Sociais (NEES/UFAL), para ser um Hub de Dados da Educação Básica, que armazena informações de estudantes e auxilia nos processos de gestão escolar, como diário de classe, matrícula, entre outros.

O representante da União Nacional dos Dirigentes Municipais de Educação (Undime), Vilmar Klemann, também elenca alguns dos desafios enfrentados, como dados incorretos ou incompletos, a leitura e análise de dados e falta de profissionais qualificados.

“Geralmente profissionais qualificados não ficam nas redes municipais e infelizmente resulta em uma rotatividade muito alta”, lamenta Klemann.

As discussões apontaram como a tecnologia pode ser aplicada não só como recurso educacional, mas como ferramenta de otimização, auxiliando a escola a ser mais eficiente na gestão da educação. 

Para ver os debates, acesse o canal do MEC no youtube ou a página do evento

Após apagão, Pacheco defende regulação da Inteligência Artificial

O presidente do Senado, Rodrigo Pacheco (PSD-MG), comentou nesta sexta-feira (19) o apagão cibernético global que impactou sistemas operacionais de empresas e serviços de diversos países, incluindo companhias aéreas, bancos, hospitais e canais de mídia. Uma falha na atualização de conteúdo relacionada ao sensor de segurança CrowdStrike Falcon, que serve para detectar possíveis invasões de hackers, e é utilizado por empresas como a Microsoft, proprietária do Windows – usado largamente em computadores – foi a causa da pane, que gerou caos em aeroportos da América do Norte e Europa.

Apagão cibernético: diversos países, incluindo companhias aéreas, bancos, hospitais e canais de mídia, foram atingidos – Marcello Casal JrAgência Brasil

O Brasil também foi atingido, com falhas em aplicativos bancários e sistemas de hospital, mas em muito menos escala do que em outros continentes.

“Causa-nos apreensão os efeitos do apagão cibernético que atingiu operações de transporte, saúde e bancárias em regiões do planeta e no Brasil. Que os responsáveis atuem de maneira célere e transparente para o restabelecimento dos serviços e, principalmente, da segurança adequada aos usuários. A conectividade contribui para a amplitude de serviços essenciais do cotidiano. Mas quando há uma falha, a reação em cadeia é prejudicial a milhares de pessoas.”, afirmou Pacheco, em declaração oficial.

Autor do projeto que regulamenta a inteligência artificial no Brasil (PL 2.338/2023), Pacheco pediu que o país aprove uma legislação para o setor. A própria empresa CrowdStrike, empresa responsável pela falha nos sistemas Windows, utiliza inteligência artificial no aperfeiçoamento dos seus serviços de segurança cibernética.   

“Esse ambiente nos alerta para os riscos da segurança cibernética, e nos lembra ser essencial a regulamentação da inteligência artificial, projeto de minha autoria, para que tenhamos um cenário mais claro, seguro e adequado em relação ao uso de ferramentas virtuais e seus efeitos práticos sobre a sociedade”, acrescentou. 

Comissão do Senado adia votação do PL da Inteligência Artificial

A Comissão Temporária  sobre Inteligência Artificial (CTIA) do Senado Federal vai adiar a apreciação do substitutivo do Projeto de Lei (PL) 2.338/2023, que regulamenta o uso da inteligência artificial no Brasil. Não há consenso entre os parlamentares do colegiado para a votação.

A proposta só deverá ser apreciada na comissão após o término do recesso parlamentar, que vai do dia 18 ao dia 31 deste mês, conforme informaram à Agência Brasil as assessorias do presidente da comissão e do relator da matéria, respectivamente, os senadores Carlos Viana (Podemos-MG) e Eduardo Gomes (PL-TO).

Este é o segundo adiamento. A votação deveria ter ocorrido no último dia 4, mas foi adiada para atualização do texto do projeto feita pelo relator. A CTIA é a única comissão que analisará o PL antes da ida deste ao plenário do Senado. Se aprovado na Casa, o texto será encaminhado para a Câmara dos Deputados. O adiamento contraria a expectativa do presidente do Senado, Rodrigo Pacheco (PSD-MG), autor do PL, proposto em maio de 2023.

A comissão realizou 12 audiências públicas com 87 convidados e colheu mais de 100 manifestações de especialistas contactados. “Todos os setores participaram, colaboraram, do governo ao Judiciário, aos setores econômicos, todos”, enfatizou o senador Carlos Viana ao anunciar o adiamento. “Este não é um assunto fácil, não é um projeto simples para o país”, admitiu.

Controle

O presidente da comissão, no entanto, criticou a desinformação em torno da proposta. “Tá lotado de gente que faz isso em rede social, que levanta o argumento de censura, mas por quê? Ganham em cima disso. Estão ganhando em cima de rede social e da desinformação da população. O Senado não é a casa para esse tipo de palco, para esse tipo de picadeiro. O Senado é a casa da discussão democrática, aberta. Nós estamos aqui para solucionar os problemas da República.”

O senador Eduardo Gomes concordou com o adiamento. ”Ninguém tem pressa de errar. O quanto antes não quer dizer o quanto pior. A gente vai continuar conversando”, disse o relator.

Conforme a agência Senado Notícias, o texto substitutivo estabelece faixas regulatórias de acordo com o risco à sociedade. Se aprovado o PL, os recursos de inteligência artificial serão proibidos quando houver “risco excessivo”, como uso de armas autônomas, que poderiam atacar alvos sem intervenção humana.

Em atividades de “alto risco”, o uso da inteligência artificial seria controlado com regras mais rígidas como no caso de veículos autônomos, aplicação da lei e sistemas que auxiliem em diagnósticos ou procedimentos médicos.

Segundo o senador Fabiano Contarato (PT-ES), a bancada governista é a favor da proposta. “O relatório busca abranger todas as especificidades que o tema alcança. Se aprovado, deixará o Brasil entre as nações mais avançadas nesse tipo de regulação.” Contarato admite que o assunto é “complexo” e diz que criar uma lei a respeito é “um desafio da atualidade, diante da evolução rápida das inteligências artificiais”.

Estudo mostra uso de inteligência artificial na detecção de fake news

Uma pesquisa desenvolvida na Universidade Federal Fluminense (UFF) desenvolveu um método para detecção de notícias falsas, as chamadas fake news, nas redes sociais, com o uso de inteligência artificial (IA). A técnica é fruto de estudo desenvolvido pelo engenheiro de telecomunicações Nicollas Rodrigues, em sua dissertação de mestrado pela universidade.

O estudante e seu orientador, Diogo Mattos, professor do Laboratório de Ensino e Pesquisa em Redes de Nova Geração da UFF, desenvolveram uma ferramenta de IA capaz de diferenciar fatos de notícias falsas, a partir da análise de palavras e estruturas textuais, com precisão de 94%.

Ou seja, a cada 100 notícias analisadas, a ferramenta conseguia acertar se era fato ou boato em 94 situações. No total, foram analisadas mais de 30 mil mensagens publicadas na rede social X (antigo Twitter). 

“Testamos três metodologias e duas tiveram sucesso maior. A gente indica, no final dos resultados, a possibilidade de utilizar ambas em conjunto, de forma complementar”, explica Rodrigues.

A primeira metodologia consistiu em abastecer um algoritmo com notícias verdadeiras e o treinaram a reconhecê-las. Aquelas que não se encaixavam no perfil aprendido, eram classificadas como fake news. 

A outra abordagem é semelhante à primeira no que se refere à análise textual, mas em vez do uso de algoritmo, foi utilizada metodologia estatística, que analisa a frequência em que determinadas palavras e combinações de palavras aparecem nas fake news. 

Os resultados do trabalho podem se transformar em ferramentas úteis para o usuário da internet identificar notícias que apresentam indícios de fake news e, assim, ter cautela maior com aquela informação.

“Pode-se transformar a ferramenta em um plugin [ferramenta que apresenta recursos adicionais ao programa principal] compatível com algumas redes sociais. E, a partir do momento em que você usa a rede social, o plugin vai poder indicar não que a notícia é falsa, de maneira assertiva, mas que ela pode ser falsa, de acordo com alguns parâmetros, como erros de português. Também existe a possibilidade de fazer uma aplicação na própria web, onde você cola o texto da notícia e essa aplicação vai te dizer se aquilo se assemelha ou não a uma notícia falsa”, explica Rodrigues.