Skip to content

Relator reforça exclusão de big tech do projeto que regula IA no país

O relator do projeto de lei que pretende regular a Inteligência Artificial (IA) no Brasil incluiu no texto, nesta quinta-feira (5), que os sistemas de IA usados por big techs para moderação e recomendação de conteúdo não devem ser regulados pela futura legislação, caso ela venha a ser aprovada.

As big techs são as gigantes da tecnologia que controlam as plataformas digitais, como Facebook, Instagram e X.

O projeto 2.338 de 2023 foi aprovado nesta quinta-feira, por acordo, na Comissão Especial do Senado criada para analisar o tema. O tema será analisado pelo plenário da Casa na próxima terça-feira (10). Se aprovado, segue para Câmara dos Deputados.

O senador Eduardo Gomes (PL-TO), relator da matéria, já havia retirado do rol dos sistemas de IA de alto risco aqueles usados para moderação e recomendação de conteúdos em larga escala, e que são usados pelas plataformas digitais que controlam, por exemplo, Instagram, Facebook e Twitter.

Isso porque o projeto de lei prevê regras de governança, fiscalização e monitoramento mais rígidas para os sistemas de IA considerados de alto risco, que são tecnologias de IA consideradas que trazem algum risco às pessoas e à sociedade.

No novo relatório apresentado hoje, o relator Gomes incluiu artigo que determina que esses sistemas usados por big techs não devem ser regulados pela Lei, caso ela venha a ser sancionada. 

“A regulação de aspectos associados à circulação de conteúdo online e que possam afetar a liberdade de expressão, inclusive o uso de inteligência artificial para moderação e recomendação de conteúdo, somente poderá ser feita por meio de legislação específica”, afirma o artigo 77 do projeto incluído nesta quinta-feira no texto.

Segundo o relator Eduardo Gomes, “a inserção do art. 77 é para evitar interpretações restritivas à liberdade de expressão”. A mudança acolheu emenda do senador Marco Rogério (PL-RO), que citou o Pacto Internacional sobre Direitos Civis e Políticos (PIDCP) para defender a mudança. 

“O pacto define que quaisquer restrições à liberdade de expressão devem ser expressamente previstas em lei, em conformidade com o princípio da legalidade”, justificou Rogério.

A especialista em inteligência artificial Paula Guedes, representante da Coalização Direitos na Rede, entidade que reúne 50 organizações, avaliou que o artigo incluído hoje prejudica a regulação de um dos mais importantes setores ligados ao uso da inteligência artificial.

“Isso é ruim, porque tira dessa lei de agora, jogando para regulação futura. Toda a tentativa é de tirar as plataformas de qualquer tipo de regulação. A gente viu isso com o projeto de lei da fake news ano passado, e a gente está vendo isso agora. Eles são os únicos atores no mercado que não têm nenhum tipo de regulação, além da regulação deles próprios”, avaliou Paula.

Representantes das plataformas digitais estavam na Comissão Especial da regulação da IA, mas a Agência Brasil não encontrou um porta-voz para comentar as mudanças. A reportagem procurou a Meta, que controla Facebook, Instagram e Whastapp, mas não obteve retorno até o fechamento desta matéria.

Projeto

De autoria do presidente do Senado, Rodrigo Pacheco (PSD/MG), o texto estabelece os princípios fundamentais para o desenvolvimento e uso de IA. Ele define que a tecnologia deve ser transparente, segura, confiável, ética, livre de vieses discriminatórios, respeitando os direitos humanos e valores democráticos. Além disso, o projeto exige que sejam contemplados o desenvolvimento tecnológico, a inovação, a livre iniciativa e a livre concorrência.

O projeto ainda define quais sistemas de nteligência artificial devem ser considerados de alto risco e, por isso, precisam de uma regulação mais rígida, além de proibir o desenvolvimento de tecnologias que causem danos à saúde, segurança ou outros direitos fundamentais.

Também proíbe que o Poder Público crie sistemas que classifiquem ou ranqueiem pessoas com base no comportamento social para acesso a bens e serviços e políticas públicas “de forma ilegítima ou desproporcional” ou que facilitem o abuso ou exploração sexual de crianças e adolescentes.

Big tech é excluída do rol de Inteligência Artificial de alto risco

O dispositivo que considerava como sendo de alto risco os sistemas de Inteligência Artificial (IA) usados pelas plataformas digitais, as chamadas big techs, para produção, análise, recomendação e distribuição de conteúdos foi excluído, nesta terça-feira (3), do projeto de lei que regula a IA no Brasil.

São considerados de alto risco os sistemas de IA que podem causar danos às pessoas ou à sociedade. De acordo com o relator, senador Eduardo Gomes (PL-TO), a retirada desse trecho foi um acordo entre as bancadas para fazer o texto avançar na Comissão Especial do Senado criada para analisar o tema.

O projeto de lei 2.338 de 2023, de autoria do presidente do Senado, Rodrigo Pacheco (PSD-MG), determina que sistemas de IA considerados de alto risco devem ser submetidos a regras mais rígidas de governança, monitoramento e fiscalização.

O texto define como de alto risco uma série de casos, entre eles, os sistemas de inteligência artificial que impactam na saúde e segurança das pessoas, como no diagnóstico médico, ou os que podem ser usados para seleção de trabalhadores em empregos, para a seleção de estudantes em instituição de ensino ou no atendimento de serviços públicos.

O trecho que se referia às big techs afirmava que seria considerada uma IA de alto risco o sistema de “produção, curadoria, difusão, recomendação e distribuição, em grande escala e significativamente automatizada, de conteúdo por provedores de aplicação, com objetivo de maximização do tempo de uso e engajamento das pessoas ou grupos afetados”.

A coordenadora de incidência da organização Repórter Sem Fronteiras na América Latina, Bia Barbosa, que tem pressionado para a aprovação do projeto, avaliou que o trecho foi retirado por pressão das plataformas digitais .

“Não faz nenhum sentido um projeto de lei de regulação de IA que não trate dos sistemas de recomendação e moderação de conteúdo, que são sistemas de alto risco. Só que as plataformas, assim como fazem em todos os países do mundo, se opõem de maneira significativa a qualquer regulação que venha afetar os seus negócios e, aqui no Brasil, elas têm um aliado muito significativo, que são os parlamentares de extrema-direita”, destacou a especialista.

Barbosa citou a desinformação em massa em eleições, na pandemia de Covi-19 e os ataques à democracia por meio das redes socais como exemplos de danos que os sistemas de recomendação de conteúdos via IA das plataformas podem causar às pessoas e à sociedade.

Apesar dessa mudança, foi adiada para a próxima quinta-feira (5) a votação do projeto na Comissão. Existia a expectativa que o tema fosse aprovado nesta terça-feira. O adiamento ocorreu porque não houve consenso entre os parlamentares em relação aos trechos que exigem a integridade da informação para sistemas de IA.

Projeto

O projeto que regulamenta a inteligência artificial no Brasil também estabelece os princípios fundamentais para o desenvolvimento e uso de IA. Ele define que a tecnologia deve ser transparente, segura, confiável, ética, livre de vieses discriminatórios, respeitando os direitos humanos e valores democráticos. O projeto exige também que sejam contemplados o desenvolvimento tecnológico, a inovação, a livre iniciativa e a livre concorrência.

Além de enumerar os sistemas de IA considerados de alto risco, o projeto proíbe o desenvolvimento de alguns tipos de tecnologias de IA que causem danos à saúde, à segurança ou a outros direitos fundamentais.

O projeto proíbe, por exemplo, que o poder público crie sistemas que classifiquem ou ranqueie pessoas com base no comportamento social para acesso a bens e serviços ou a políticas públicas “de forma ilegítima ou desproporcional” ou de sistemas de IA que facilite o abuso ou exploração sexual de crianças e adolescentes.

Alto risco

De acordo com o artigo 14 do projeto, são considerados sistemas de alto risco aqueles de controle de trânsito, de redes de abastecimento de água, eletricidade e “quando houver risco relevante à integridade física das pessoas”.

Também são considerados sistemas de IA de alto risco aqueles aplicados na educação e formação profissionais para determinar acesso à instituição de ensino ou de monitoramento de estudantes, além dos sistemas usados para recrutamento de trabalhadores ou para promoções no trabalho. 

Sistemas de IA de “repartição de tarefas e controle e avaliação do desempenho e do comportamento das pessoas nas áreas de emprego, gestão de trabalhadores e acesso ao emprego por conta própria” também são considerados de alto risco.

Outros exemplos são sistemas de IA para avaliação de prioridades em serviços públicos essenciais, como bombeiros e assistência médica. Também são citados no texto os sistemas de inteligência artificial usados pela Justiça para investigação de crimes, ou que tenham risco para as liberdades individuais ou ao Estado democrático de direito.

Os sistemas de IA na área da saúde, como para auxiliar no diagnóstico e procedimentos médicos, e para o desenvolvimento de veículos autônomos em espaços públicos são outros exemplos de sistemas de alto risco de inteligência artificial listados pelo projeto.

Impa Tech lança edital do processo seletivo 2025

O Instituto de Matemática Pura e Aplicada (Impa) divulgou nesta terça-feira (29) o edital do processo seletivo 2025 do Impa Tech – primeira graduação do instituto e a segunda turma do bacharelado em Matemática da Tecnologia e Inovação. 

O Impa Tech oferece ensino superior gratuito, financiado pelo governo federal por meio dos ministérios da Ciência, Tecnologia e Inovação (MCTI) e da Educação (MEC).

As inscrições abrem na próxima terça-feira (5), a partir das 9h, no site do instituto e vão até 27 de dezembro. Serão oferecidas até 100 vagas para estudantes de todo o Brasil interessados em uma formação superior com foco em inovação e desenvolvimento tecnológico.

“O processo seletivo da turma 2025 do Impa Tech faculta a jovens talentosos de todo o Brasil a possibilidade de acesso a uma graduação de excelência com uma proposta acadêmica inovadora”, destaca o diretor-geral do instituto, Marcelo Viana.

Localizado no Rio de Janeiro, no hub de inovação Porto Maravalley, na zona portuária da cidade, o bacharelado de 4 anos é presencial em horário integral. O currículo é interdisciplinar e, após um ciclo básico de um ano e meio, os alunos escolhem entre quatro ênfases: Matemática, Ciência da Computação, Ciência de Dados e Física. 

Para atrair estudantes de todo o Brasil, o Impa Tech oferece alojamento estudantil, disponibilizado pela Prefeitura do Rio de Janeiro, e apoio financeiro.

Os estudantes aprovados na etapa final do processo seletivo também terão a passagem aérea para o início do ano letivo no Rio de Janeiro custeada pelo instituto.

O processo seletivo do Impa Tech destina 80% das vagas para alunos com melhor desempenho em cinco olimpíadas de conhecimento: Olimpíada Brasileira de Matemática das Escolas Públicas (OBMEP) – nível 3 / premiação nacional; OBM (Olimpíada Brasileira de Matemática) – nível 3; OBFEP (Olimpíada Brasileira de Física das Escolas Públicas) – níveis B e/ou C Nacional; OBQ (Olimpíada Brasileira de Química) – modalidades A e/ou B; e OBI (Olimpíada Brasileira de Informática) – modalidade programação níveis 1 e/ou 2, somente Ensino Médio.

As 20% vagas restantes são destinadas para estudantes mais bem colocados na prova de matemática do Exame Nacional do Ensino Médio (Enem). O candidato precisa escolher qual modalidade irá se inscrever: olimpíadas ou Enem. 

Realizado em duas etapas, o processo seletivo contará ainda com atividades em grupo e entrevistas individuais (online). A graduação terá vagas destinadas à ampla concorrência e também reservará um quantitativo aos candidatos distribuídos em diferentes grupos de cotas. 

A publicação da lista com 360 candidatos selecionados para 2ª fase está prevista para 21 de janeiro.