A criação de marcos regulatórios para as novas tecnologias, como a inteligência artificial, passa pelo desafio de equilibrar a garantia da proteção de direitos sem a restrição aos avanços tecnológicos. Especialistas na área concordam que, sem uma regulamentação, o mau uso das ferramentas digitais pode impactar na manutenção da democracia. O debate central é como, e, inclusive, quando promover essa regulação.
Quando se fala em novas tecnologias, logo se pensa nas plataformas de redes sociais e, mais recentemente, em inteligência artificial. Ambas estão em constante mudança e têm sido incorporadas à vida das pessoas. Elas produzem efeitos nas áreas de governo, trabalho, comunicação, serviços, logística e também em processos eleitorais. A internet se tornou um palco para o exercício de direitos subjetivos e é também por isso que se torna necessário criar leis sobre o tema.
De acordo com o sociólogo e professor espanhol Manuel Castells, apesar de não serem a causa raiz, as novas tecnologias contribuem para ampliar a polarização e a crise de legitimidade de processos políticos. Nesse contexto tecnológico, a regulamentação é uma forma de garantir a preservação de direitos e, assim, evitar retrocessos.
— Acredito que a tecnologia por si mesma não causa efeitos sociais e políticos. [A questão] é como se utiliza a tecnologia, quem e para quem — declarou Castells em entrevista à TV Senado. — Hoje em dia, essas tecnologias porque tal e como são, podem aumentar a crise da democracia e, de fato, o fazem em muitos países. Não são a origem, não são a causa, mas amplificam enormemente. Mas não são a origem. A origem é a falta de confiança nos políticos e nas instituições políticas democráticas — afirmou.
Neste cenário, é papel do Legislativo elaborar normas que garantam aos cidadãos o uso seguro das novas ferramentas tecnológicas. O momento, segundo Castells, é de uma “nova política, honesta, inteligente, informada e adaptada à sociedade digital” sob o risco de ser necessário reconstruir os avanços já alcançados atualmente.
Se a democracia e direitos fundamentais estão em jogo, como criar uma rede de proteção em um cenário tecnológico que evolui em ritmo acelerado e constante? Essa foi uma das questões que guiou os debates doSeminário Internacional Democracia e Novas Tecnologias: desafios da era digitalpromovido pelo Senado. A iniciativa faz parte das comemorações dos 200 anos da Casa, que tem a tradição de ser uma instituição de vanguarda em questões como direitos sociais, transparência e participação popular.
Ugo Pagallo, professor da Universidade de Turim, na Itália, define a inteligência artificial como um sistema tecnológico que pode atuar ou pode pensar como os humanos, em muitos casos até melhor do que as pessoas. Ele afirma que a definição fica mais complexa à medida que envolve questões éticas e morais, como em relação à IA generativa — ferramenta capaz de criar conteúdos textuais ou audiovisuais a partir de uma base de dados existente.
— Não temos que esperar a próxima catástrofe tecnológica para começarmos a criar as nossas leis [...] Temos diferentes abordagens e podemos intervir legalmente de várias formas — disse. Os riscos e oportunidades das novas tecnologias podem ser regulados, segundo o professor, de forma horizontal — durante todo o ciclo de vida da tecnologia — e vertical — de forma setorial e específica.
Entre outras possibilidades, a criação de “agentes artificiais”, segundo o professor, pode desvalorizar as habilidades das pessoas e pode remover a responsabilidade humana se algo der errado em um processo. Ao mesmo tempo, pode capacitar e melhorar as realizações humanas, fortalecer os agentes humanos e aumentar essa capacidade da sociedade.
Urs Gasser, conselheiro do Berkman Klein Center da Universidade de Harvard, nos Estados Unidos, afirma que, quando a internet surgiu, havia a perspectiva otimista de aumento de participação nos processos democráticos. Ao longo do tempo, entretanto, o ambiente digital também contribuiu, por exemplo, para a disseminação de desinformação. Apesar de pesquisas sobre o tema serem realizadas há mais de 25 anos, ele afirma que, na prática, ainda não há evidências concretas ou uma resposta única sobre se a tecnologia é boa ou má para a democracia.
— A tecnologia pode ser útil, pode ser utilizada para coisas maravilhosas, como fortalecer a participação e criar novas formas de expressão política, mas também outros estudos mostram que essas mesmas tecnologias, como mídias sociais, podem criar bolhas de filtro ou então podem levar à exclusão de certas comunidades e, na verdade, prejudicar a sociedade — disse.
Comparado ao surgimento da internet, que contou com uma visão entusiasta, ele afirma que evolução da IA é vista como uma ameaça e com pessimismo. Neste novo ciclo de inovação tecnológica, Gasser defende a criação de “salvaguardas” para a boa governança e o uso de novas tecnologias no processo decisório na sociedade.
— Não podemos esquecer que isso também tem a ver com pessoas, tem a ver com os atores, organizações, nações e Estados. Talvez, mais do que antes, a questão se a inteligência artificial será uma ferramenta para alavancar e fortalecer a democracia ou não dependerá de como nós, as pessoas, estamos utilizando essas ferramentas. Eu acho que o desafio é, claro que é, muito mais difícil nós reprogramarmos as pessoas do que é reprogramar a tecnologia, software e IAs — declarou.
Professora da Universidade de Brasília, Christiana Freitas, afirma que a IA pode ter um uso benéfico para a elaboração de políticas públicas por meio da sistematização das demandas e sugestões, além de projeções de cenários para a ação governamental.
— Muito mais importante talvez que regular as tecnologias é regular os usos e as intenções de quem está elaborando o projeto político. A gente tem projetos políticos que vão construir esses instrumentos de IA e que vão gerar efeitos na sociedade — defendeu.
O professor da Universidade Técnica de Munique (Alemanha) Christian Djeffal defende que não necessariamente exista uma relação dicotômica entre inovação e regulação. Ele afirma ainda que as pessoas influenciam a tecnologia e também são influenciadas por ela.
Ricardo Campos, professor da Universidade Goethe (Alemanha), afirma que a democracia moderna é “profundamente dependente das novas tecnologias”. A dependência é, segundo ele, “ambivalente e paradoxal” já que a tecnologia funda e viabiliza a democracia moderna ao mesmo tempo que tem o potencial de prejudicá-la.
Ele avalia que há um “risco muito grande” em seguir o modelo de regulação europeu da IA e defende criar regras de forma setorizada para cada área, como saúde, indústria e telecomunicações.
— O modelo que eu tenho posto é o de observar o desenvolvimento europeu, a aplicação, principalmente quando entrar em vigor, e ver se vai impactar na inovação [...] Essa forma de setorizar e observar onde realmente surge dano e fazer uma cirurgia precisa para evitar a continuação desse dano seria a melhor forma para o Brasil enfrentar a questão da regulação da Inteligência Artificial — ponderou.
Na mesma linha, Juliano Maranhão, professor de direito da Universidade de São Paulo, defende que o debate sobre um marco regulatório no Brasil não deve se restringir às diretrizes que já foram aprovadas pela União Europeia, em especial em relação a criar uma autoridade de fiscalização. Ele afirma ser preciso considerar o patamar de desenvolvimento da tecnologia no país.
— A ideia é uma regulação que possa promover uma tecnologia confiável e será que a única forma de fazer isso é por meio de uma imposição de uma regulação externa e transversal, com uma autoridade fiscalizadora e sancionadora? [...] Talvez esse modelo sancionador externo não seja adequado de início. Talvez o contexto e o nosso desenvolvimento no país no mercado de IA está aquém do desenvolvimento europeu — disse.
Segundo ele, a necessidade de uma regulação no Brasil é principalmente para propiciar fomento e investimento no desenvolvimento da IA. Ele acredita que o Estado e os legisladores podem pensar em “arranjo institucional mais eficiente” para a cooperação dos agentes privados, para estimular a responsabilidade no desenvolvimento e uso de novas tecnologias.
No seminário promovido pelo Senado, parte dos conferencistas defendeu a urgência para aprovar um marco regulatório, enquanto outros são favoráveis a esperar para ver os resultados das regras já aprovadas em outros países.
— O Brasil deveria se antecipar numa regulação pioneira novamente, como marco civil, em tecnologias complexas como a inteligência artificial, ou não? Será que deveríamos aprender com essas experiências internacionais e dar um passo mais cauteloso para que consigamos pavimentar um caminho mais fértil para a inovação? Essa é uma equação que não é óbvia — afirmou o professor de direito Eduardo Magrani, que é afiliado do Berkman Klein Center da Universidade de Harvard.
Segundo ele, os países são desafiados atualmente a fazer um “balanço hipercomplexo” sobre a preservação de direitos e a posição de cada nação no cenário geopolítico de desenvolvimento tecnológico. Além disso, regular de forma “robusta” representaria um risco muito grande, assim como não regular poderia ser um risco ainda maior.
Como aAgência Senado mostrou , tramitam na Casa várias propostas sobre o uso de novas tecnologias e a regulamentação da inteligência artificial. Em 2022, uma comissão de juristas foi criada para discutir e apresentar um anteprojeto sobre o tema. O texto da comissão foi apresentado como projeto de lei pelo presidente do Senado, senador Rodrigo Pacheco.
O PL 2.338/2023 é tratado com prioridade no Senado este ano. O texto está em análise em uma comissão temporária dedicada exclusivamente ao tema.Um dos desafios do projeto é propor regras abrangentes para não se tornar ineficaz rapidamente com a evolução de tecnologias futuras.Integrantes do colegiado esperam votar a proposta ainda neste semestre. O relator, senador Eduardo Gomes (PL-TO), pode apresentar sua versão do texto em abril.
Mín. 22° Máx. 34°
Mín. 22° Máx. 33°
ChuvaMín. 22° Máx. 27°
Chuva