Buscar artigo ou registro:

Necessidade de regulamentação legal do uso e desenvolvimento da Inteligência Artificial

 

Beatriz Barbosa da silva Briante

 

DOI: 10.5281/zenodo.10573102

 

 

Resumo

O presente artigo tem por finalidade apresentar sobre a necessidade de um marco legal para a regulamentação da Inteligência artificial, no decorrer do seu contexto será apresentado aspectos ligados aos riscos e dificuldades que os usuários e operadores de direito vem enfrentando diante da não normatização especifica ligada a IA (inteligência artificial). O artigo ira apontar em seus capítulos, atual posição do direito diante das inovações que a IA vem apresentando desde sua criação, como o ordenamento jurídico vem lidando com a lides, somente com base em princípios ligados ao direito digital e as abordagens regulatórias disponíveis. Descreve-se no artigo que os princípios éticos não são suficientes e que a regulação jurídica complementar é de suma importância, assim como a necessidade de instituições que auxiliem a lidar com o tema. Também será abordado sobre a PL 2.338/2023, que poderá ser um marco legal que tanto vem sendo aguardado, o projeto está tramitando pelo Senado, e ira regulamentar a IA e trazer uma direção os operadores e desenvolvedores de IA, com base em direitos e deveres.

 

Palavras chaves: Inteligência artificial. Marco legal. Regulamentação.

 

 

Abstract

The purpose of this article is to present the need for a legal framework for the regulation of Artificial Intelligence, in the course of its context, aspects related to the risks and difficulties that users and operators of law have been facing in the face of the lack of specific regulation linked to AI (artificial intelligence). The article will point out in its chapters, there is the current position of law in the face of the innovations that AI has been presenting since its creation, how the legal system has been dealing with disputes, only based on principles related to digital law and the regulatory approaches available. The article describes that ethical principles are not enough and that complementary legal regulation is of paramount importance, as well as the need for institutions that help to deal with the issue. It will also be discussed about PL 2.338/2023, which could be a legal framework that has been so long awaited, the project is being processed by the Senate, and will regulate AI and bring a direction to AI operators and developers, based on rights and duties.

 

Keywords: Artificial intelligence. Legal framework. Regulation

 

 

Definição de inteligência artificial

 

Há um consenso entre os autores e pesquisadores sobre uma definição exata do que é a inteligência artificial, defendem que não existe um conceito especifico e limitado que determine o que seria a inteligência artificial, devido a sua complexidade. Para Schiman (2021, p.38) “trata-se certamente de um ramo da ciência/engenharia da computação, portanto, visa desenvolver sistemas computacionais que solucionam problemas”. Sendo assim, utiliza-se um número diverso de técnicas e modelos, de acordo com cada um dos problemas abordado.

Já para Fernandes (2003, p.160) “inteligência é aquilo que o homem pode escolher entre uma coisa e outra, sendo que a inteligência é o modo de resolver problemas, de realizar tarefas”. Portanto, para ele a inteligência artificial é um tipo de inteligência criada pelo homem, para favorecer as máquinas na capacidade de simular a inteligência natural do homem.

Visto que, está inteligência não é criada pela natureza, mas pelo o homem, observamos que a Inteligência Artificial (IA), tem o condão de criar conexões ligadas no cérebro, o órgão mais abstruso do corpo humano, necessariamente, o que tem como função a capacidade de instruir-se e solucionar problemas, raciocinar, planejar e criar ideias complexas. Dessa forma, Kurzweell (2007) afirma sobre a complexidade de conexões que o cérebro humano possui:

 

O número de neurônios no cérebro humano é estimado em aproximadamente 100 bilhões, com uma média de mil conexões por neurônio, para um total de 100 trilhões de conexões. Com 100 trilhões de conexões e 100 milhões de pedaços de conhecimento (incluindo padrões e habilidades), nós obtemos uma estimativa de cerca de um milhão de conexões por pedaço (p.144).

 

Muito do que chamamos hoje de inteligência artificial, são na realidade procedimentos algoritmos dotados de aprendizado de máquina. Para que haja uma melhor concepção dessa definição, é necessário determinar o que é um algoritmo. Um algoritmo nada mais é do que uma sequência finita de ações que resolve um certo problema.

Segundo a Fundação Instituto de Administração da Content (2019), algoritmos são uma sequência de instruções, operações e raciocínios que norteiam o desempenho de um software, sendo assim, esse software pode direcionar os movimentos de um hardware.

Portanto, o algoritmo da inteligência artificial, trabalha com suposições e uma resposta para cada uma delas, as máquinas elegem, entre milhares de variáveis, respostas ajustadas aos problemas complexos.

Assim, a Inteligência Artificial compreende uma enorme variedade de áreas, desde as de uso geral ligadas a aprendizagem e a percepção, até atividades especificas como jogos de dama, demonstração esquemas matemáticos e análises de doenças. A IA sistematiza e automatiza atividades intelectuais e, logo, é virtualmente relevante para qualquer campo da atividade intelectual humana.

 

 

Breve relato da evolução histórica da inteligência artificial

 

Alguns autores defendem que sua origem ocorreu em 1956, na Darthmouth College Conference, que é apontada como o marco inicial da IA. Os pesquisadores renomados e tidos como pais da área, como “John MacCarthy, Marvin Minsky, Alan Newell e Herbert Simon, entre outros, participaram desse evento e tiveram trajetórias científicas que estabeleceram o marco nesse fascinante domínio da Computação” (SICHMAN,2021, p.2).

Contudo, vale ressaltar que, foi Alan Turing o primeiro a proferir uma visão completa da IA em seu artigo de 1950 “Computing Machinery and Intelligency”. Ele expôs o Teste de Turing, onde indicou um teste baseado na impossibilidade de diferenciar entre entidades inteligentes, “os seres humanos”. “O computador sobrevirá no teste se um interrogador humano, depois de apresentar algumas perguntas por escrito, não conseguir descobrir se as respostas escritas vêm de uma pessoa ou não” (GOMES, 2010, p.4).

Como o nome mesmo sugere, a área sempre foi rodeada de grandes expectativas, e em vários momentos essas não foram alcançadas. Dessa forma, nas últimas décadas ocorreram mudanças ligadas à área, segundo Sichman (2021, p.2) há períodos de grande acendimento e grande financiamento e também seguidos por outros de desapontamento e escassez de recursos.

Estes últimos, são conhecidos como AI Winter (Inverno da IA), como foram por exemplo os períodos entre 1975/1980 e 1987/1993. A inteligência artificiou ganhou status de uma das mais controversas áreas do conhecimento humano desde 1950, desde então vive-se momentos de euforia e grandes desenvolvimentos ligadas a pesquisa acadêmica e crescimento das corporações, (SICHMAN, 2021).

A partir dos anos 80, os sistemas de inteligência artificiais baseados em sistemas especialistas iniciaram abertura de portas ligadas a economia grandes empresas, criando dessa forma, uma demanda de sistemas econômicos, valorizando assim, esta área.

Nesse período, a inteligência artificial teve um maior desenvolvimento, em 1987 ela foi considerada como ciência, obtendo assim, uma melhor compreensão das dificuldades e de suas complexidades. Segundo Pereira (2005, p.25), “hoje em dia, as áreas em que a inteligência artificial é mais acentuada são as de planejamento autônomo, jogos, controle autônomo, diagnóstico, planejamento logístico, e reconhecimento de linguagem e resolução de problemas”.

Para Castells (2003, p.3), foi em 1990 que Tim Berners-Lee ampliou a aplicação de compartilhamento de informação: www.3, que garantiu que a internet conseguisse se expandir-se pelo mundo todo, o crescimento das novas indústrias no mercado tecnológico foi expressivo, iniciando assim investimentos em pesquisas fundamentadas em redes de computadores.

Entretanto, mesmo que Tim não possuísse consciência disso, seu trabalho prosseguiu em uma longa tradição de ideias e projetos. De acordo com Castells (2003), “a formação de redes é uma prática muito antiga, mas ganharam nova vida em nosso tempo, transformando-se em redes de informação energizadas pela internet”.

Dessa forma, as redes têm participando de forma importante como ferramentas de organização, devido a sua flexibilidade e adaptabilidade essenciais, características primordiais para se resistir e progredir em um ambiente de constante mutação.

A IA vem ofertando novas soluções diariamente, agindo neste meio com celeridade e efetividade, gerando impulso para que as empresas diminuam seus custos e aumentem a qualidade de seus produtos.

Por isso, Russel e Norvig (2013) defendiam que a IA teve, desde o seu início, a ideia de reportar faculdades humanas como criatividade, auto aperfeiçoamento e uso da linguagem, se diferenciando em um campo onde há busca constante de construir máquinas que funcionem de forma independente em ambientes complexos e mutáveis.

Segundo Coelho (2017), Machine Learning (ML) ou Aprendizado de Máquina é de grande valia para à aplicação de algoritmos que ensinam interativamente a partir de dados, para instruir um determinado agente inteligente a realizar tarefas e aprender sozinho no meio que ocupa.

Como aconselha Coppin (2010), várias técnicas de aprendizado de máquina. Entre eles o aprendizado por hábito, que possui a característica do programa aprender por experiência conforme o que for informado anteriormente, mas o programa apenas guarda os dados que podem ser classificados, caso ele não consiga classificar os valores informados o método então terá falhas. Há também o método por aprendizado por conceito, que avalia todas as hipóteses e apresenta qual é a correta.

De acordo com, Prado e Hisatugu (2016), na aba de ML surgiu uma nova tecnologia chamada “Deep Learning” – DL ou Aprendizado Profundo – que tem despertado a atenção de diversos pesquisadores desta área. A DL é aprimorada no conceito de redes neurais que buscam simular o cérebro humano. Esta tecnologia vem ganhando cada vez mais lugar: sistemas que controlam carros, processamento de linguagens, reconhecimento de imagens, aplicações na medicina, reconhecimento de doenças, diagnóstico cardiovascular, desenvolvimento de medicamentos, entre outras aplicações” (ANGELI; COLLODETE, 2019, p.7).

Vale ressaltar que, a inteligência artificial não está ligada apenas a robôs ou agentes autônomos. Para Coelho (2017), muitas das atividades realizadas diariamente, até mesmo as mais simples são alimentadas por algoritmos de Machine Learning, exemplo disso:

 

Os resultados de pesquisa na Web, anúncios em tempo real, detecção de fraudes tanto em páginas da web como em dispositivos móveis, análise de sentimento baseada em texto, previsão de falhas em equipamento, detecção de invasão em uma determinada rede, reconhecimento de determinados padrões e imagens, dentre outras atividades (p.2).

 

É importante frisar, como a evolução tecnológica afeta as pessoas em seu meio social e econômico, devido a automatização dos processos industriais e a redução de custos, maior produtividade e qualidade nos produtos, vê-se a necessidade da integração de máquinas nas linhas de produção. De acordo com, Moreno (2017) e avaliação da consultoria Tractica, os usos da inteligência artificial são bastante variados e muito lucrativos.

Segundo Maia (2013), a robótica é avaliada como a principal força de impulso para o desenvolvimento e o avanço dos meios de produção, isto devido à sua polivalência. Os robôs têm a capacidade de serem reprogramados e empregados nos mais diversos ramos de atuação. A fácil flexibilidade garante, por meio de um sistema apto de tratamento de informação, é eficaz a adequação destes agentes inteligentes em uma linha de produção.

Para o cientista Stephen Hawking (apud JONAS, 2014), a Inteligência Artificial pode mostrar-se como uma ameaça se a máquina ultrapassar a nossa inteligência. Essas máquinas "avançariam por conta própria e se projetariam em ritmo sempre crescente. Os humanos, limitados pela evolução biológica lenta, não conseguiriam competir e seriam desbancados."

Sendo assim, imaginando os robôs com intelecto capaz para distinguir o bem e o mal, foi criado um “código de conduta”, no qual a inteligência artificial deve ser baseada. Farinaccio (2017) cita as leis básicas da robótica, do livro de ficção I, Robot (Eu, Robô, 1950), de Isaac Asimov:

 

Primeira lei: Um robô não pode fazer mal a um ser humano nem, por inação, permitir que algum mal lhe aconteça. Segunda lei: Um robô deve obedecer às ordens dos seres humanos, exceto quando estas contrariarem a primeira lei. Terceira lei: Um robô deve proteger sua integridade física, exceto quando isto contrariar a primeira ou a segunda lei (p.1).

 

Segundo Wolkan (2018), o ser humano tem características que o diferencia das máquinas que não podem substituir. É fato que elas estão evoluindo em relação à inteligência emocional, mas é importante observar que uma coisa é a aplicação desse recurso em uma escala de atendimento remoto, outra distinta é fazer o mesmo em um contato pessoal, no qual os sentimentos são essenciais nas relações pessoais.

Comparado algumas décadas atrás, o mercado de Inteligência Artificial está se consolidando em torno de aplicativos reais, com o ritmo das mudanças sendo mais rápido do que antes. As previsões do mercado modificam, mas todas têm o consenso que prevê esse crescimento explosivo.

A Consultoria Tractica (2017) - Empresa de inteligência e pesquisas de mercado com are de atuação na interação humana com a tecnologia - antecipa que as aplicações diretas e indiretas do software de IA incluindo o mercado de Sistemas Cognitivos (hardware e serviços), cresçam cerca US $ 89,8 bilhões até 2025. Esse crescimento é ligado a tecnologia do Aprendizado de Máquina, que vem captando o maior investimento de capital de risco em todas as áreas de IA.

Tal otimismo é devido a três fatores fundamentais afirma Sichman (2021, p.37): (i)o custo de processamento e de memória nunca foi tão barato; (ii) o surgimento de novos paradigmas, como as redes neurais profundas, possibilitados pelo primeiro fator e produzindo inegáveis avanços científicos; e (iii) uma quantidade de dados gigantesca disponível na internet em razão do grande uso de recursos tais como redes e mídias sociais.

Portanto, o avanço da Inteligência Artificial no decorrer dos anos, proporcionou ao homem inúmeros benefícios tecnológicos o que antes parecia intangível, hoje atividades simples que eram realizadas apenas pelo homem, passam a ser realizadas também pela máquina, esta que é criada e capacitada para sanar as necessidades específicas para a qual foi desenvolvida, com autonomia para resolver sobre a melhor conduta no momento de agir, gradativamente vem transformando o mapa global de produção, estimando a inovação e a qualificação da mão de obra.

 

 

Princípios fundamentais da Inteligência artificial

 

Princípio da beneficência

 

Importante mencionar como os princípios fundamentais da Inteligência artificial, são relevantes para o desenvolvimento e ampliação da área de atuação da IA. O princípio da beneficência destaca-se, pois trata-se de um princípio ligado a bioética e incide no dever de auxiliar o próximo, de atuar na sociedade para promover bem comum, ou seja, busca praticar o bem social, (BARBOSA; NETTO; SILVA, 2021, p.122).

Nesse sentindo, Koerich (2005, p.106) acredita que, “avaliar os riscos e os benefícios potenciais (individuais e coletivos) e buscar o máximo de benefícios, reduzindo ao mínimo os danos e riscos.”. Portanto, a compreensão dos riscos referentes a IA é fundamental para execução do princípio da beneficência.

A declaração de Montreal, relevante documento que busca garantir o direito ao nível máximo a saúde e bem-estar, através da preservação dos direitos fundamentais, assim como o princípio da beneficência também visa um desenvolvimento da IA em garantir o bem comum, (KOERICH, 2005, p.106).

 

 

Princípio da não maleficência

 

Este princípio também está ligado a bioética, tendo como base que a ação humana deve estar voltada a não realizar comportamentos negativos ao bem-estar social, sendo assim, este princípio, deve guiar-se de acordo com a tomada de decisões para se evitar danos voluntários e involuntários aos demais seres humanos, devendo considerar e ponderar os riscos das condutas e selecionar a melhor alternativa para a sociedade.

Dessa forma, mesmo que o princípio da beneficência e o da maleficência estão ligados ao bem-estar social, eles se distinguem, pois o da maleficência exige que seja adotada medidas eficazes para a prevenir riscos adversos com o desenvolvimento da IA. Importante apontar que, o emprego da IA deve ocorrer de maneira adequada, para que não seja causado danos a sociedade e riscos as gerações futuras (BARBOSA; NETTO, 2021; 122).

 

 

Princípio da autonomia

 

O princípio da autonomia também incide da bioética, mas há uma incidência particular no âmbito de debate sobre a IA. Ao pensar em machine learning, por exemplo, á possibilidade do ser humano retomar o controle de decisões em situações de automatização. Contudo, não se deve restringir a liberdade humana em benefício da celeridade das máquinas em realizar tarefas especificas, (FLORIDI, 2019, p.15).

Assim, é necessário assegurar que os indivíduos consigam restaurar o poder de decisão ao utilizarem aplicações de IA, para determinadas tarefas que tenham selecionadas, o padrão relativo ao desenvolvimento de aplicações de IA preza para que o ser humano consiga retomar o controle (LIMA,2020, p.123.).

 

 

Princípio da justiça

 

Ao se falar no princípio da justiça é importante analisar a ótica de duas perspectivas segundo (Lima, 2020, p.124):

Acesso Equinanime as aplicações de IA: todos os indivíduos devem ter os seus direitos garantidos para acessar aplicações de IA para usufruir os seus benefícios. Assim, para que haja uma sociedade justa, é necessário a ampla fruição das vantagens decorrentes do desenvolvimento da IA em escala mundial.

Correção de Discriminações Sociais: as aplicações de IA necessitam de dados para se desenvolverem; porem estes dados são oriundos da sociedade que é desigual, logo, é necessário corrigir as discriminações sociais por meio da intervenção humana para que a IA não perpetue injustiças.

É importante salientar que, o princípio da justiça é primordial para que o desenvolvimento da IA não seja aplicado para nutrir as discriminações na sociedade, ou seja, deve-se criar aplicações destinadas a retificar situações desiguais, aceitando que, a inovação seja conduzida para construção de um estado justo.

 

 

Princípio da explicabilidade

 

O princípio da explicabilidade incide na compreensão pelos seres humanos do que está sendo ofertado a eles no que se pauta a aplicação da IA, ao conseguir determinados produtos que são desenhados para automatizar tarefas por meio do uso da IA, deve-se entender como as decisões são desenvolvidas, como se aperfeiçoa uma machine learnin, quem é responsável por eventuais danos, (FLORIDI; COWLS, 2019, p.15).

O Princinpio da Explicabilidade se subdividi em dois princípios o da Inteligibilidade e da Accountability. O princípio da inteligibilidade está interligado ao princípio da transparência, porque é necessário à compreensão de como funciona as aplicações da IA. Desse modo, é de suma importância destacar que ao desenvolver as aplicações da IA, há um destinatário final que usará o produto desenvolvido, logo este consumidor deve ter a consciência do funcionamento da IA.

Sendo assim, o conhecimento em relação a IA não deve ser apenas por um grupo de especialistas no assunto e por desenvolvedores de aplicações de IA, ou seja, os destinatários finais também devem entender o funcionamento do que se está adquirindo, sendo que para isso ser possível, é conciso explicar de forma clara e inteligível como é estruturada a IA, (LIMA, 2020, p.123).

Dessa forma, para que seja desenvolvida uma IA confiável, é de suma importância, a compreensão do seu funcionamento e desenvolvimento nas tarefas que serão realizadas, pois a confiança poderá ser definida quando há nitidez no seu funcionamento e no objetivo de sua utilização.

Já o princípio da accountability, segundo Lima, (2020, p. 124,) está presente em grande parte dos documentos que objetivam delinear os parâmetros basilares da IA confiável. Este princípio, consiste no entendimento acerca de quem é responsável pelo funcionamento da aplicação IA. Dessa maneira, é primordial compreender de que forma funciona e identificar o responsável pelos resultados que forem gerados, mesmo que negativos advindos das aplicações de IA.

Assim, este princípio é fundamental para o arcabouço jurídico concernente a IA, que questões relativas as responsabilidades civis são pautadas neste princípio.

 

 

Riscos e receios que podem ser ocasionados pela utilização da IA

 

Nas últimas décadas ocorreu um crescimento célere da presença da Inteligência Artificial (IA) no cotidiano. São inúmeras as situações em que usamos, na maior parte das vezes, modelos desenvolvidos por algoritmos de IA (Faceli, 2021). Todo avanço científico, tecnológico ou inovador pode acarretar benefícios ou malefícios, de acordo com a forma que é utilizado.

Uma das principais inseguranças sobre a relação do homem com máquinas inteligentes, é como lidar com os conflitos. È importante notar que enquanto a estrutura e o comportamento dos seres humanos são conduzidos por lentos processos bioquímicos, as máquinas, devido aos avanços na ciência de materiais e na capacidade de processamento de dispositivos computacionais, são cada vez mais resistentes e eficientes (CARVALHO, 2021, p.7).

De acordo com Dietterich e Horvitz (2015) ha cinco classes de riscos relacionados ao uso de sistemas de IA são elas falhas (bugs), sao sistemas de software que apresentam falhas, são desenvolvidos e validados para alcançarem altos níveis de garantia de qualidade; segurança (cybersecurity) são sistemas de IA vulneráveis a qualquer ataque cibernético. Pode ser citado como exemplo, a manipulação dados de treinamento podendo alterar o comportamento dos sistemas; aprendiz de feiticeiro (sorcerer’s apprentice): Um ponto relevante em qualquer sistema de IA que tenha interação com as pessoas é que ele deva raciocinar sobre o que estas almejam, em vez de executar comandos. Um sistema de IA deve considerar e compreender se a conduta que um ser humano está solicitando pode ser considerado ”normal” ou ”razoável” pela maioria das pessoas;

A autonomia compartilhada (Shared autonomy): Estabelecer esses sistemas colaborativos ergue um quarto conjunto de riscos derivados de desafios sobre fluidez de engajamento e nitidez sobre posições internas e objetivos dos envolvidos no sistema. A criação de sistemas em tempo real onde o domínio precisa mudar ligeiramente entre as pessoas e os sistemas de IA é difícil; Os impactos socioeconômicos: é necessário entender as influências da IA na classificação de empregos e na economia de forma mais abrangente. Esses pontos decorrem da ciência e engenharia da computação, abordando ao domínio das políticas e programas econômicos que poderão garantir que os benefícios dos aumentos de produtividade fundamentados em IA sejam compartilhados (DIETTERICH; HORVITZ, 2015).

Uma das principais fontes de riscos por parte da IA, está no conjunto de dados utilizados para geração de modelos, como é o fato das aplicações por meio da aplicação de algoritmos aprendizado de máquina aos dados. Assim, é necessário ter cuidado na hora de coletar os dados. Porque um algoritmo de aprendizado de máquina é sobreposto a um conjunto de dados, ele procura por padrões nos dados e fortalece na criação de um modelo que simule os dados. Se os padrões tiverem alguma obliquidade, o modelo gerado terá a obliquidade (CARVALHO, 2021, p.10).

Outro ponto importante para o uso responsável da IA é o direito à privacidade e proteção de seus dados. O direito à privacidade de dados pessoais deve se resumir pelo controle, por parte de um indivíduo ligado a coleta, ao uso e compartilhamento de seus dados pessoais. Devido a ampliação no volume de dados gerados, é corriqueiro notícias de vazamento acidental ou criminoso de dados pessoais.

Para Weller (2019), a transparência é comumente uma questão crítica para o emprego essencial de soluções baseadas em IA, tanto a motivação quanto os benefícios da transparência dependam, em grande parte, do contexto, dessa forma fica difícil ter uma avaliação e identificação de maneira objetiva.

Dessa forma, é possível observar que a IA não está isenta de riscos potenciais e atuais e que muitas empresas não se sentem preparadas o suficiente para lidar com eles. Devido ao desenvolvimento rápido e a incerteza na segurança, assim, o uso de dados pessoais sem consentimento é um dos riscos mais comuns ligados à IA.

Muitos fraudadores procuram dados que fomentam os sistemas de IA, ou falhas na vulnerabilidades de softwares e que levam á impactos na performance de sistemas que possuem IA. Os próprios exemplares e algoritmos criam problemas quando apresentam resultados inclinados e quando suas decisões e ações não são claros e transparentes.

 

 

Função do direito frente a inteligência artificial

 

A utilização da inteligência artificial atualmente não se trata de uma opção, e sim de uma causalidade da contemporaneidade. Há várias situações nas quais o ser humano é guiado e conduzido por este tipo de inteligência, que acaba não permitindo ter uma escolha.

Dessa forma, surge o questionamento se a inteligência artificial interfere na supressão da liberdade do indivíduo, se os direitos dos usuários estão sendo suprimidos e, ocasionalmente o próprio exercício de sua autonomia privada. Assim, a função do Direito, diante do desenvolvimento da inteligência artificial é preservar as liberdades dos sujeitos, sua autonomia e o seu direito de escolha.

Atualmente, não há um marco legal que regule a aplicabilidade da IA, isso acaba acarretando incertezas e risco, por não saber quais direitos a serem preservados e quais deveres devem ser cumpridos, porem no ordenamento jurídico brasileiro existem princípios que auxiliam a ter maior transparência por parte de provedores de aplicações. São eles: a boa-fé objetiva, dignidade da pessoa humana e o próprio solidaríssimo.

A boa-fé prevista no Código Civil Brasileiro no seu art 113, serve para orientar os juízes diante de casos impostos pelo uso em concreto de ferramentas de inteligência artificial. Nesse contexto, Rodota (2008, p.90) afirma que “ao interpretar um contrato e os deveres que são retirados, um magistrado pode exigir que um provedor de aplicações de IA comprovasse as razoes pelas quais chegou a um determinado resultado”.

A boa-fé tem a função objetiva na vedação do abuso de direito por parte de pessoas naturais ou jurídicas, que se valem da inteligência artificial para a prestação de seus serviços ou fornecimento de seus produtos, no art 187 do Código Civil prevê o combate ao exercício indevido de direitos subjetivos. Portanto, a boa-fé deve ser utilizada como ferramenta repressora de condutas inapropriadas.

Porém, o Brasil necessita cada vez mais de um Poder judiciário atento, atualizado e disposto a combater eventuais abusos que coloquem em risco a privacidade do usuário, para que se obtenha uma verdadeira proteção a toda a coletividade que hoje é impactada pelo uso de aplicações de inteligência artificial, assim é primordial a criação de uma regulamentação especifica da IA para dirimir ambiguidade de interpretação.

 

 

Responsabilidade civil pelos danos causados por entes dotados de IA no ordenamento jurídico brasileiro

 

O campo de atuação da inteligência artificial apresenta grandes desafios ao direito, nesse sentido, é certo que os atos praticados pela inteligência artificial, acaba repercutindo dentro da ceara da responsabilidade civil quando causa danos injustos a alguém ou a uma coletividade, sabe-se que a objetividade algoritma muitas vezes é incompatível com valores ou direitos garantidos ao usuário.

Segundo Calixto (2004) a imprevisibilidade da conduta das IAs autônomas acarreta inúmeros questionamentos, exemplo:

 

... quem deve reparar as vítimas que porventura venham a sofrer com danos injustos cometidos por inteligência artificial?; (ii) houve falha no funcionamento (bug) ou simplesmente foi uma tomada de decisão equivocada? (iii) é possível se auditar os caminhos tecnológicos percorridos por um sistema de Inteligência Artificial para entender o porquê de determinada predição/recomendação? (iv) como resolver juridicamente demandas relacionadas a esses agentes? (p.1)

 

Em 16 de fevereiro de 2017, o Parlamento Europeu debateu a Resolução 2015/2113(INL), que possuía recomendações à Comissão de Direito Civil sobre Robótica referente ao regime de responsabilidade civil aplicável à IA. Nessa ocasião, os autores sugeriram ao Parlamento que os institutos de direito civil, hoje existentes, mas que na época eram escassos para erradicar as questões ligadas as novas tecnologias.

Essa carência normativa estava diretamente relacionada à imprevisibilidade no comportamento dos agentes autônomos com inteligência artificial. Cogitaram a possibilidade de criar uma nova categoria de personalidade jurídica, as “e-person”, cujo desígnio seria atribuir a responsabilidade civil, em caso de danos injustos ocasionados por seus atos autônomos ou omissões. Esta proposta foi duramente recriminada como uma visão semelhante a ficção cientifica, de tal maneira que a Resolução mais recente do Parlamento Europeu, de 20 de outubro de 2020, a (2020/2014(INL), apartou a criação de uma personalidade jurídica própria aos sistemas conduzidos por IA.

Importante frisar que, o Direito da Robótica vem ganhando forças pelo mundo, sendo considerado como alternativa para regular as questões ligadas às demandas decorrentes das novas tecnologias da inteligência artificial.

Nesse contexto, Tepedino e Guia (2019, p.61) defendem, de forma convicta, que a criação de um novo ramo do direito é um verdadeiro risco para o ordenamento jurídico brasileiro, de modo que não supostos vazios normativos. Para eles, mesmo que determinada questão ligada à IA embora não esteja ao alcance de certas normativas, é incumbido ao intérprete o papel de buscar esforços para solucionar fundamentos com base nos valores do ordenamento existente, de modo a encontrar resposta para o novo problema.

Adotando como base este posicionamento, cria-se possíveis correntes que podem ser utilizadas para regulamentar a responsabilidade civil no Brasil, relativa aos danos causados por IA. Nesse sentido foram criadas algumas teses por autores e estudiosos da área que apresentam possibilidades de tipos de responsabilidade civil, são elas:

A Irresponsabilidade da IA e dos agentes desenvolvedores: os apoiadores dessa tese acreditam que a vítima estará sem reparação devido a dois fundamentos. Segundo Mulholland (2020, p.345) “O primeiro deles diz respeito à impossibilidade atribuição da capacidade jurídica á uma inteligência artificial; e o segundo é à ausência de conhecimento dos desenvolvedores do motivo pelo qual o agente tomou aquela decisão equivocada”.

A tese citada tem como base, a ideia de que este amparo desmotiva o desenvolvimento tecnológico relevante para a vida em sociedade. Compreendendo que serão responsabilizados pelas indenizações, onde as empresas e desenvolvedores, assim desmotivando-os (MULHOLLAND, 2020, p.345).

Porém, há quem pondere que a teoria do risco do desenvolvimento, é uma excludente de responsabilidade dos agentes desenvolvedores, nessa posição de que se empregaram a melhor tecnologia da época e posteriormente advir o desenvolvimento de algo mais novo e mais seguro, não implicaria em defeito da IA. A responsabilidade ocasionaria uma penalização exacerbada considerando os defeitos, em tese, não seriam localizados pelo fabricante.

A Responsabilidade objetiva da IA tendo uma nova categoria jurídica – as e- persons – os sistemas de inteligência artificial teriam uma personalidade e patrimônio de maneira que eles se responsabilizariam diretamente pelos danos que acarretarem. Como mencionado anteriormente, essa teoria foi objetivamente recusada na nova apreciação pelo Parlamento Europeu em 2020.

A responsabilidade subjetiva do programador de acordo com Calixto (2004) é quando “o programador que elaborou os algoritmos iniciais seria responsabilizado caso comprovado sua culpa. Caberia à vítima o trabalho hercúleo de comprovar a culpa do referido agente, haja vista que a autonomia da IA rompe o nexo de causalidade”.

Segundo Calixto (2004) a Responsabilidade objetiva da sociedade que recebe lucro com a IA: no texto do artigo 927, parágrafo único, do CC/02 – teoria do risco criado a IA seria considerada como bem perigoso.

Portanto, a responsabilidade não se emprega na pessoa que atuou de maneira culposa, mas em quem era capaz de tornar mínimo os riscos e suportar impactos negativo, em outras palavras, toda pessoa ligada atividades que apresentam riscos, mas que são lucrativas e de utilidade para a sociedade, devera indenizar os danos causados pelo lucro que obteve. Seja o próprio criador da IA, o fabricante de produtos que utilizam IA, empresa ou um profissional que não está na ligada a produção da IA, mas que acaba utilizando sua atividade e usufrui dos lucros dessa tecnologia.

a Responsabilidade objetiva do fornecedor utilizando o Código de Defesa do Consumidor: esta tese acredita-se em parte que o dano é ocasionado em razão de um defeito no produto ofertado, ainda que o defeito não seja conhecido durante a criação da IA, teoria do risco do desenvolvimento, (CALIXTO, 2004).

Importante ressaltar que, no PL 21/2020, tem previsão da indenização em razão de danos causados por IA no âmbito de uma analogia consumerista que deve ser regulada pelo Código de Defesa do Consumidor. Dessa forma, é possível verificar que a responsabilidade civil, causada por danos instigados por sistemas de IA ao consumidor final, será objetiva.

Em contrapartida, o artigo 6° do PL 21/2020 ocasionou debates no âmbito jurídico, pois ficou definido que a regra é o regime de responsabilidade civil subjetiva devido aos danos causados por aplicações de IA. Assim, há vários debates ligados ao tema responsabilidade civil por danos causados por sistemas de IA é derivado da ausência de uma classificação de risco no PL n. 21 de 2020.

A Emenda de Plenário n. 02 da PL 21/2020 que dirimiria as lacunas, foi rejeitada, a motivação da sua rejeição é referente ao atraso que causaria para a aprovação, pois exigiria muito tempo disciplinar sobre o relatório de alto impacto e sobre as atividades que seriam determinadas como de alto risco.

Era, exatamente, isso que deveria ser debatido e apresentado em um projeto de lei que visa a ser um Marco Legal da IA, pois resolveria muitas dúvidas relativas à responsabilização civil se existisse uma classificação de risco dos sistemas de IA e se possuísse parâmetros para a elaboração de um relatório para à gestão de risco. Assim, questiona-se o porquê da urgência de aprovar este projeto de lei mesmo que tenha lacunas e longe do objetivo a que se propõe.

Dessa maneira, é importante o Brasil possuir um Marco Legal da Inteligência Artificial, que estabeleça as principais regras e diretrizes para a regulação da IA no país, apresentando definições e classificação de risco que viabilizem a criação de posteriores normas jurídicas que disciplinarão, de maneira setorial, a matéria alusiva à inteligência artificial.

 

 

Desafios jurídicos para regulamentação da IA

 

Devido a constante mudanças tecnológicas e do desenvolvimento de novas áreas, acaba que a aplicação do direito pode ocorrer de maneira insegura gerando muitas vezes sua ineficiência ou implicações disfuncionais de medidas jurídicas. Uma regulação jurídica deve conter probabilidades de reversão, se caso o objetivo jurídico não for alcançado acarretara consequências inesperadas e negativas.

Nesse sentido, o pesquisador Stephen Hawking acredita que deve ser dado mais atenção ao tema da segurança da IA. Embora as intimidações se dirijam de maneira específica, elas também estão ligadas ao risco. A IA seria capaz de abrir mão do controle humano e ampliar potenciais destrutivos para a humanidade.

De acordo Wolfgang (2019, p.5), “há riscos em áreas restritas, como transplantes cerebrais e outros dispositivos neurais”. Dessa maneira, os riscos para o futuro não se dão apenas com aceites, especialmente do ponto de vista ético, a implicações para o desenvolvimento humano e à compreensão e ao funcionamento da inteligência humana. Há um receio também ligadas as novas formas de crimes cibernéticos, exemplo, o hackeamento de marca-passos ou outros implantes conduzidos por IA.

Segundo Gasson e Koops (2013).

 

As consequências de ataques contra implantes humanos podem ser bem maiores para a vida e saúde humana do que no caso do cibercrime clássico. Além disso, à medida que a tecnologia dos implantes continua se desenvolvendo, torna-se difícil traçar um limite exato entre o corpo e a tecnologia, e os ataques afetam não apenas a confidencialidade, integridade e disponibilidade dos computadores e dados de computação, mas também a integridade do próprio corpo humano (p.248).

 

As dificuldades para a criação de uma regulamentação jurídica de sistemas IAM, também derivam do fato de que as tecnologias conduzem ao estreitamento de limites ou demandam uma atuação em áreas que não limites. Assim, as tecnologias digitais empregadas, muitas vezes não têm limites regionais e nem nacional ou só acabam tendo em casos excepcionais, o mesmo se sobrepõe aos serviços apresentados com a tecnologia digital e a seus efeitos (WOLFGANG, 2019).

Contudo, primordialmente não se exclui a probabilidade de vinculação normativa das empresas que operam em nível transnacional a regulamentações jurídicas com âmbito de vigência limitado no alcance em que elas atuem nesse campo. Nesse sentindo, o art. do RGPD define que é possível a aplicação ao processamento de dados pessoais “efetuado no contexto das atividades de um estabelecimento de um responsável pelo tratamento ou de um subcontratante situado no território da União, independentemente de o tratamento ocorrer dentro ou fora da União”. Regras complementárias se localizam no § 1º da Lei Federal de Proteção de Dados. A irradicação de limites também considera à dimensão dos objetos.

Dessa forma, os limites entre hardware e software se dissolvem, ou podem ser solucionados na área do hardware ou do software, uma dissolução de limites expressiva para a regulação pode ser abrangente e específica para cada domínio.

A proteção regulatória está sendo determinada por atores que, ao longo de sua jornada, estimularam o desenvolvimento da IA e a usaram em seus negócios, é possivel mencionar, o cofundador da Paypal e dono da Tesla, Elon Musk, o co- fundador da Microsoft, Bill Gates, e o cofundador da Apple, Steve Wozniak,(WOLFGANG 2019).

Devido aos riscos da IA que vão longe dos pertinentes ao processamento de dados pessoais, é necessário elucidar se faz sentido questionar a tarefa de monitoramento e as autoridades designadas da proteção de dados.

Assim, seria necessário, ampliar suas jurisdições qualitativas e quantitativas, de recursos humanos adequados. Todavia, seria aconselhável criar uma entidade especializada responsável, em nível federal, esses critérios devem estar regidos pelas normas jurídicas constitucionais, que observem os princípios éticos.

Frisa-se a necessidade de enfrentar as dificuldades técnicas da implementação de instrumentos jurídicos, para isso é preciso que haja conhecimento jurídico e técnico da matéria por parte da sociedade civil.

É de suma importância, não só para os usuários, mas para os órgãos de fiscalização, uma transparência satisfatória é uma pressuposição não só para a estreitamento de confiança, mas para prestação de contas e responsabilidade civil

Assim, conforme o surgimento das necessidades os instrumentos jurídicos vão se adequando as inovações. Também é necessário pensar que trabalhar, na área do direito, com o instrumento da innovation forcing refere-se à definição normativa de finalidades ou padrões que ainda não podem ser alcançados por um todo, mas cuja amplitude é presumível.

 

 

Regulamentação da IA

 

No Brasil muito se tem falado sobre a regulação da IA, a necessidade de uma legislação que acarrete segurança jurídica e previsibilidade ao setor e a toda sociedade. Atualmente há um projeto de lei que vem tramitando no Senado a PL 2.338/2023 , em seu texto consta 45 artigos que fundamenta o uso da inteligência artificial, os princípios ligados ao bem-estar humano em geral, exemplos “o respeito à dignidade humana, à liberdade, à democracia e à igualdade”; “o respeito aos direitos humanos, à pluralidade e à diversidade”; “a garantia da proteção da privacidade e dos dados.

O projeto prevê como finalidade o uso da IA a “promoção e a harmonização da valorização do trabalho humano e do desenvolvimento econômico”. Também, há informação de que a IA deverá “auxiliar à tomada de decisão humana; que a forma de supervisão humana poderá variar conforme a gravidade e as consequências da decisão e que o supervisor humano será responsabilizado por danos causados pelo uso da IA”.

No projeto estão inseridas as diretivas para atuação da União, Estados, Distrito Federal e Municípios no desenvolvimento da IA no País :

I – realização de consulta e audiência públicas prévias sobre a utilização planejada dos sistemas de inteligência artificial, com informações sobre os dados a serem utilizados, a lógica geral de funcionamento e resultados de testes realizados; II definição de protocolos de acesso e de utilização do sistema que permitam o registro de quem o utilizou, para qual situação concreta, e com qual finalidade; III – utilização de dados provenientes de fontes seguras, que sejam exatas, relevantes, atualizadas e representativas das populações afetadas e testadas contra vieses discriminatórios, em conformidade com a Lei nº 13.709, de 14 de agosto de 2018, e seus atos regulamentares;

Segundo Peixoto e Coutinho (2020, p.3), o texto da proposta legislativa reconhece a realidade mundial na criação de sistemas baseados em IA, ligadas a benefícios de produtividade e qualidade. A PL relata também a vivência de riscos e a necessidade de uma regulação primordial para a IA. Em sua fundamentação se dá em estabelecer princípios básicos para o uso de IA para, de acordo com seus próprios termos, “[...]dispor de ferramentas de governança e de um arranjo institucional de fiscalização e supervisão, cria condições de previsibilidade acerca da suainterpretação e, em última análise, segurança jurídica para inovação e o desenvolvimento tecnológico”.

Por fim, a justificativa garante que todo sistema de IA precisará ter “supervisão de uma pessoa humana e a responsabilidade será sempre do supervisor humano do sistema e apresenta com uma última diretriz ao poder público a necessária política para qualificação de trabalhadores”.

Dessa forma, o texto que será analisado pelas comissões temáticas do Senado, criando normas para que os sistemas de inteligência disponibilizados no Brasil, estabeleça direitos as pessoas lesadas por seu funcionamento, definindo os critérios para o seu uso, ate mesmo pelo poder público, prevendo sanções á violações das normativas, conferindo ao Poder Executivo a prerrogativa de definir qual órgão irá fiscalizar e regulamentar o setor.

A violação destas regras acarretará, conforme o texto do projeto, uma multa de até R$ 50 milhões por infração ou até 2% do faturamento, no caso de empresas. Outras punições previstas estão, a proibição de participar dos ambientes regulatórios e a suspensão temporária ou definitiva do sistema (PEIXOTO & COUTINHO 2020, p.3). Assim, um certo receio para os investidores e desenvolvedores desta tecnológica, pois consideram que esta abordagem não proporciona um desenvolvimento benéfico ao setor e sim um retardo e até mesmo o não desenvolvimento tecnológicos futuros que poderiam beneficiar a sociedade.

Importante frisar que, a PL defini que para serem estabelecidos no Brasil, os sistemas de inteligência artificial, deverá advir de uma avaliação previa, realizada pelos próprios fornecedores, a fim definir se eles podem ser considerados de alto risco ou risco excessivo, de acordo com os critérios da implementação do sistema ser ou não em grande escala.

A potencialidade de impacto negativo no exercício de direitos e liberdades; a possibilidade de causar dano material ou moral, danos irreversíveis ou de ter uso discriminatório; ou o fato de o sistema afetar pessoas de grupos vulneráveis, como crianças, idosos ou pessoas com deficiência. Essa classificação, que pode ser revista pela autoridade competente, tem importante impacto, conforme o projeto, pois as regras previstas para os sistemas que forem classificados como de alto risco são mais rigorosas (AGENCIA SENADO, 2023, p.1).

O PL 2.338/2023 antecipa que a regulamentação daqueles que forem considerados como sendo de risco exacerbados será feita pela autoridade competente, a ser denominada pelo Poder Executivo. Assim, a Agencia Senado (2023) relata que projeto lista como sistemas que serão avaliados de alto risco podendo ser atualizada pela autoridade competente, aqueles que vierem a ser usados para atividades tais como: classificação de crédito; identificação de pessoas; administração da Justiça; implementação de veículos autônomos; diagnósticos e procedimentos médicos; tomada de decisões sobre acesso a emprego, a ensino, ou a serviços públicos e privados essenciais; avaliação de estudantes e trabalhadores; gestão de infraestruturas críticas, como controle de trânsito e redes de abastecimento de água e de eletricidade; avaliação individual de risco de cometimento de crimes e de traços de personalidade e de comportamento criminal.

O PL 2.338/2023 define que a inteligência artificial não deverá usar técnicas subliminares para levar pessoas a se manter de forma prejudicial ou ameaçadora à sua própria saúde e segurança; nem poderá empreender vulnerabilidades de grupos específicos, como aquelas ligadas a idade ou deficiência, para levar um comportamento prejudicial. O poder público não poderá utilizar a inteligência artificial para avaliar e rotular as pessoas com base em seu comportamento social ou personalidade de maneira que determine ou não o acesso a bens e políticas públicas de forma ilegítima e desigual.

Outro aspecto relevante no texto da PL é o direito à não discriminação e à retificação de vieses, vedando de forma explicita a discriminação fundamentada em origem “geográfica, raça, cor ou etnia, gênero, orientação sexual, classe socioeconômica, idade, deficiência, religião ou opiniões políticas (AGENCIA SENADO, 2023).

Entretanto, fica lícita a aceitação de critérios de distinção de indivíduos ou grupos quando possuir justificativa aceitável e legítima “à luz do direito à igualdade e dos demais direitos fundamentais” (PL 2.338/2023).

Assim, se as decisões dos sistemas apresentarem impacto irreversível ou gerarem riscos à vida ou à integridade física dos sujeitos, será necessário o envolvimento humano no processo de decisão.

O projeto de lei exige em seu texto a transparência no uso dos sistemas de inteligência artificial, os fornecedores e os operadores desses sistemas devem tomar medidas para evitar discriminação e garantir a segurança aos dados utilizados. Sendo obrigatório a comunicação à autoridade responsável pela ocorrência de imprevistos graves de segurança, como ocasiões em que houver intimidação à vida ou à integridade física de pessoas, ou cessação de funcionamento ou provimento de serviços fundamentais, danos ao meio ambiente ou transgressão aos direitos fundamentais.

Salienta-se que o projeto de lei, busca fomentar a inovação, onde a autoridade responsável poderá aprovar, diante da solicitação dos interessados, a instituição de um ambiente regulatório experimental chamado sandbox experimental, que atende o funcionamento temporário de produtos e serviços inovadores sem a necessidade de verificar a regulamentação do setor, mas com o monitoramento dos órgãos competentes (PEIXOTO & COUTINHO 2020, p.5).

Por fim, a regulação da IA no país é necessário, se de fato este projeto entrar em vigor contribuirá significativamente para a amenização dos riscos e insegurança jurídica, porem deve ser levado em consideração um aprofundamento dos legisladores no tema, para que o desenvolvimento da tecnologia não seja desestimulado e tenha um ambiente tecnológico próspero e seguro tanto para o fornecedor da IA quanto para o usuário.

 

 

Bibliografia

 

AGENCIA SENADO. (2023). Senado analisa projeto que regulamenta a inteligência artificial. Acesso em 23 de junho de 2023. https://www12.senado.leg.br/noticias/materias/2023/05/12/senado-analisa-projeto- que-regulamenta-a-inteligencia-artificial.

 

ANGELI, P; COLODETTE, L. (2019). A evolução da inteligência artificial e a substituição do trabalho humano. (tese de mestrado em Inteligência Computacional) Universidade Cândido Mendes Ucam Campo-Rio de Janeiro. Acesso em 11 de junho de 2023 https://multivix.edu.br/wp-content/uploads/2019/10/revista- ambiente-academico-v05-n01-artigo01.pdf.

 

BARBOSA, M; NETTO, F; SILVA, M. (2021). Direito Digital e inteligência artificial. Diálogos entre Brasil e Europa. (p.124). Editora foco. Indaiatuba, São Paulo.

 

CALIXTO,M. (2004). A Responsabilidade Civil do Fornecedor de Produtos pelos Riscos do Desenvolvimento. (p.1). Renovar. Rio de Janeiro.

 

CARVALHO, A. (2021). Inteligência Artificial: riscos, benefícios e uso responsável. (p.07-21). Acesso em 20 de junho de 2023 https://www.scielo.br/j/ea/a/ZnKyrcrLVqzhZbXGgXTwDtn/?format=pdf&lang=pt.

 

CASTELLS, M. (2003). A galáxia da internet: reflexões sobre a internet, os negócios e a sociedade. (p,3)Tradução de Maria Luiza X. de A. Borges. Rio de Janeiro.

 

COELHO, L. (2018). Machine Learning: o que é, conceito e definição. Acesso 11 de junho de 2023 https://cetax.com.br/machine-learning/.

 

CONTENT, R. (2021). Saiba como funciona um algoritmo e conheça os principais exemplos existentes no mercado. Acesso 10 de junho de 2023 https://rockcontent.com/br/blog/algoritmo/.

 

CONSULTORIA TACTICA. (2017). Artificial Intelligence Software Market. Acesso em 23 de junho 2023 https://omdia.tech.informa.com/topic-pages/artificial-intelligence. COPPIN, B. (2004). Artificial Intelligence Illuminated. Edição. Canada: Jones and bartlett publishers.

 

DIETTERICH, T; Horvitz ,E. (2015). Rise of concerns about AI: reflections and directions. Communications of the ACM. (v.58, n.10, p.38-40).

 

FACELI, K. (2021). Inteligência Artificial Uma Abordagem de Aprendizado de Máquina. 2. edição. GrupoGen. Acesso em 20 de junho 2023 https://www.grupogen.com.br/e--book-inteligencia-artificial-uma-abordagem-de- aprendizado-de-maquina.

 

FARINACCIO, R. Como funcionam as Três Leis da Robótica do escritor Isaac Asimov em 2017. Tecmundo. Acesso em: 12 junho 2023 https://www.tecmundo.com.br/ciencia/125150-funcionam-tres-leis-robotica-escritor- isaac-asimov-2017.htm.

 

FERNANDES, A (2003). Inteligência artificial: noções gerais. (p.160). Visual Books, Florianópolis.

 

FLORIDI, L; COWLS, J. (2019). A unified Framewoek of five Principles for Al in Society. (v1, p,15). Harvard Data Science e Review. Boston.

 

GOMES, D. (2010). Inteligência Artificial: Conceitos e Aplicações. (p.4) Faculdades Associadas de Ariquemes- FAAr. Revista olhar cientifico. Acesso em 10 de junho de 2023 https://www.professores.uff.br/screspo/wp- content/uploads/sites/127/2017/09/ia_intro.pdf.

 

GASSOIN, M. (2013). Attacking Human Implants: A New Generation of Cybercrime. ( v. 5, p. 248).LID.

J

ONAS, R. (2014). Inteligência artificial pode destruir a humanidade. Acesso 12 junho de 2023 https://www.bbc.com/portuguese/noticias/2014/12/141202_hawking_inteligencia_pa i.

 

KOEICH, MACHADO, R.(2005). Etica e Bioetica: para dar inicio a reflexão.(p.106). Florianopolis.

 

KURZEWEILl, R.(2007). A era das máquinas espirituais. (p.144). Tradução de Fábio Fernandes reimpressão. São Paulo: Aleph.

 

LIMA, C. (2020). Tutela Jurídicos Dados Pessoais dos Usuários da Internet. (122- 124). CNPq. Ribeirão Preto.

 

MAIA, D. (2013). Automação Industrial e Robótica. Acesso em 12 de junho de 2023 http://professor.pucgoias.edu.br/SiteDocente/admin/arquivosUpload/17829/material/ ARTIGO08.pdf.

 

MORENO, G. (2017). Las aplicaciones más rentables de la inteligencia artificial. Statista. Acesso em 12 de junho de 2023 https://es.statista.com/grafico/9437/las- aplicacionesmas-rentables-de-la-inteligencia-artificial.

 

MULHOLLAND, C. (2020). Responsabilidade civil e processos decisórios autônomos em sistemas de Inteligência Artificial (IA): autonomia, imputabilidade e responsabilidade. (ed 2, p.345). Thomson Reuters Brasil .São Paulo.

 

PEIXOTO, F; COUTINHO, M. (2020). Inteligência artificial e regulação: uma análise do Projeto de Lei 5.051/2019. (p.03-05). (Tese de mestrado em direito, racionalidade e inteligência artificial). Universidade de Brasilia. Brasilia.

 

PEREIRA, L. (2005). Inteligência Articial Mito e Ciência. (p.25). São Paulo. Acesso em: 10 de junho de 2023 http://centria.fct.unl.pt/~lmp/publications/online-papers/ia- mito.pdf.

 

PRADO, E; HISATUGU, W. (2016). Aplicações de Deep Learning em Medicina no Mundo - parte. Convergência Digital. Acesso em 11 de junho de 2023.

 

RODOTA, S. (2008). A Vida na sociedade da vigilância: a privacidade hoje. (p.90). Renovar. Rio de Janeiro.

 

RUSSELL, S; NORVIG, P. (2013). Inteligência Artificial. Tradução da terceira edição. Rio de Janeiro: Elsevier.

 

SICHMAN, J (2021). Inteligência Artificial e sociedade: avanços e riscos. (p.37). Estudos avançados, Universidade de São Paulo, Escola Politécnica, Departamento de Engenharia de Computação e Sistemas Digitais, São Paulo, Brasil.

 

TEPEDINO, G; SILVA, R. (2019). Desafios da inteligência artificial em matéria de responsabilidade civil. (v.21, p. 61).Revista Brasileira de Direito Civil – RBDCivil | Belo Horizonte.

 

WOLFGANG, H. (2019). Inteligência Artificial Como Oportunidade para a Regulação Jurídica.(v.16.p.5-28).Porto Alegre.

 

WOLKAN, E. (2018). Inteligência artificial e o mercado de trabalho: fim dos empregos? Transformação Digital Acesso em 12 junho 2023. https://transformacaodigital.com/inteligencia-artificial-e-o-mercado-de-trabalho-fim- dos-empregos/.