Prévia do material em texto
Inteligência Artificial Aplicações e Desafios ITS RIO OBLIQ LIVROS RIO DE JANEIRO Inteligência Artificial — Aplicações e desafios, por ITS Rio, está protegido com a seguinte licença: Creative Commons Attribution-NonCommercial-NoDerivatives 4.0 International (CC BY-NC-ND 4.0). Texto revisto pelo Acordo Ortográfico de 1990. Produção editorial Obliq Livros Preparação dos originais ITS Rio eISBN: 978-85-65404-29-7 Obliq Edição e Produção Ltda. E-mail: comercial@obliq.com.br http://obliq.com.br Para citação: BRANCO, Sérgio; MAGRANI, Eduardo (Coords.). Inteligência Artificial: Aplicações e desafios. Rio de Janeiro: Instituto de Tecnologia e Sociedade do Rio de Janeiro; ITS/Obliq, 2022. https://creativecommons.org/licenses/by-nc-nd/4.0/ Sumário Apresentação 1. Reposicionando a interação humano-computador: “profiling” e discriminação algorítimica para além da inclusão — Maru Arvigo 2. Automação e o futuro do trabalho: Elementos de um roteiro estratégico para a educação e a formação profissional — Ana Paula Camelo e Cláudio Lucena 3. Inteligência artificial e big data: o processamento de dados como instrumento de uma inclusão sócio digital — Camila Maria de Moura Vilela 4. Responsabilidade civil e inteligência artificial: quem responde pelos danos causados por robôs inteligentes? — Christine Albiani 5. A inteligência artificial e o ecossistema financeiro — Fernanda Borghetti Cantali 6. Inteligência artificial, self-driving cars, e suas consequências jurídicas em caso de acidentes — Gregório Soria Henriques 7. Accountability de algoritmos: a falácia do acesso ao código e caminhos para uma explicabilidade efetiva — Isabela Ferrari 8. Softwares de tomada de decisão e poder público: estudo de casos e efeitos regulatórios — Carlos Eduardo Rabelo Mourão e Davi Teofilo Nunes Oliveira 9. Artificial intelligence in government: creating a framework for transparency and accountability — Laura Nathalie Hernández Rivera 10. Inteligência artificial e o direito autoral: o domínio público em perspectiva — Luca Schirru 11. Qualificação profissional face aos sistemas produtivos da Quarta Revolução Industrial — Marco Brandão 12. New perspectives on ethics and the laws of artificial intelligence — Eduardo Magrani 13. Inteligência artificial: riscos para direitos humanos e possíveis ações — Paula Gorzoni 14. Crowdsourcing e machine learning - uma revisão sistemática com discussão do uso para a participação pública dos cidadãos — Ricardo Mendes Jr. Apresentação A inteligência artificial impulsiona cada vez mais o desenvolvimento de tecnologias e de negócios mundialmente. Com ela, dispositivos inteligentes e robôs vêm sendo aplicados para as mais variadas finalidades e nos mais diversos setores, como o financeiro, da saúde, de seguros, da propriedade intelectual e automobilístico, impondo grandes desafios para os criadores e consumidores de aplicações tecnológicas. O intenso uso de algoritmos, inteligência artificial e big data traz uma série de facilidades e otimiza processos, contudo questões relacionadas à segurança dessas tecnologias e aos tratamentos de dados realizados precisam ser mais bem discutidas, de forma plural e multissetorial. Pergunta-se: como analisar essas questões diante do cenário regulatório brasileiro? Nossa estratégia brasileira de inteligência artificial hoje é satisfatória para abordar a temática e sua complexidade? É necessário estabelecer um marco regulatório para a IA? Quais são as principais questões relativas à segurança, ética e bem-estar dos seres humanos quando tratamos de dispositivos inteligentes e robôs? As questões acima foram amplamente discutidas em nosso grupo de pesquisa sobre inteligência artificial, sendo a presente obra resultado desse importante e sério debate. O conteúdo específico de cada artigo não reflete necessariamente a opinião institucional do ITS, ou de qualquer de seus membros, representando livre expressão de seu autor acerca da temática. Os grupos de pesquisa do ITS são projetos anuais cujos participantes são selecionados por meio de edital público. Podem participar pesquisadores de qualquer lugar do mundo, uma vez que os encontros são todos ao vivo e online. Até o momento, já foram desenvolvidos grupos sobre privacidade e proteção de dados; cidades inteligentes; moderação de conteúdo em plataformas; metaverso; e, claro, inteligência artificial. Os frutos desses trabalhos encontram-se em varandas e em publicações, as quais podem ser acessadas em nossos canais e site: https://itsrio.org/pt/home/ . O ITS é um centro de pesquisa multidisciplinar totalmente independente, que trabalha em parceria com diversas instituições brasileiras e estrangeiras, em temas voltados à proteção dos direitos humanos e à aplicação da tecnologia em nossa sociedade. Suas atividades apresentam quatro áreas principais: direito e tecnologia; democracia e tecnologia; inovação e tecnologia; e educação. Acreditamos na importância da difusão e do acesso ao conhecimento, por essa razão o presente livro encontra-se disponível de forma gratuita e sob a licença Creative Commons Attribution-NonCommercial-NoDerivatives 4.0 https://itsrio.org/pt/home International (CC BY-NC-ND 4.0). Esperamos que, nos próximos anos, mais temas sejam acrescidos e que possamos continuar com a nossa missão de promover debates e conteúdos de alto nível sobre questões de interesse público relacionadas à tecnologia e aos desafios que ela nos impõe. Rio de Janeiro, 25 de abril de 2022 Os coordenadores[1] [2] 1. Sérgio Branco é Cofundador e diretor do Instituto de Tecnologia e Sociedade do Rio de Janeiro (ITS Rio). Doutor e Mestre em Direito Civil pela Universidade do Estado do Rio de Janeiro (UERJ). Especialista em propriedade intelectual pela Pontifícia Universidade Católica do Rio de Janeiro – PUC-Rio. Pós-graduado em cinema documentário pela FGV Rio. Graduado em Direito UERJ. Sócio de Rennó Penteado Sampaio Advogados. ↵ 2. Eduardo Magrani é Doutor em Direito, afiliado ao Berkman Klein Center na Universidade de Harvard e Pós-Doutor pela Universidade Técnica de Munique (TUM) em Proteção de Dados e Inteligência Artificial. Sócio do Demarest Advogados, nas áreas de "Propriedade Intelectual" e "Privacidade, Tecnologia e Cybersegurança". Consultor Sênior na área de TMT do CCA Law Firm em Portugal. Eduardo é Presidente do Instituto Nacional de Proteção de Dados no Brasil. Autor de diversos livros e artigos na área de Direito e Tecnologia, entre eles, a "Coleção de Cultura Digital", composta pelos livros "Democracia Conectada", "A Internet das Coisas", "Entre Dados e Robôs" e "Vida em Rede". ↵ https://creativecommons.org/licenses/by-nc-nd/4.0/deed.pt 1. Reposicionando a interação humano- computador: “profiling” e discriminação algorítimica para além da inclusão Maru Arvigo[1] “If we use machine learning models to replicate the world as it is today, we’re not actually going to make social progress.” Fala de Meredith Broussard no documentário “Coded Bias” (Dirigido por Shalini Kantayya; 7th Empire Media) Resumo: Este artigo tem como pretensão principal mapear três debates teóricos sobre inteligência artificial e inclusão: (i) a criação de perfis de comportamento online (“profiling”) por meio de algoritmos de inteligência artificial que, se reduzidos às linhas de código, são construídos sobre equações matemáticas, destacando-se certos aspectos de sua natureza, (ii) a manutenção de um perfil homogêneo de atores nos espaços de criação e tomada de decisão a respeito dos mecanismos tecnológicos, e (iii) a importância do estímulo ao pensamento crítico nos desenvolvedores envolvidos na modelagem e manipulação de tais informações. Observa-se, de um lado, que a técnica de “profiling” utiliza algoritmos de inteligência artificial para encontrar padrões de comportamento entre usuários da rede, o que, pela natureza matemática dos modelos embutidos em IA, levantam questionamentos sobre justiça, igualdade e discriminação algorítmica. Por outro lado, observa-se que algoritmos são criações humanas e, como tal,são um reflexo do comportamento humano. Neste campo, são pautadas preocupações relacionadas a se de fato mecanismos tecnológicos são neutros ou, pelo contrário, abrigam visões (e determinam pontos cegos) daqueles que desenvolvem o código em si e participam do processo criativo e decisório a respeito dos mecanismos tecnológicos. Por isso, a inclusão de grupos sub-representados é essencial. Em uma terceira e introdutória discussão, levanta-se o debate sobre a centralidade do componente humano na interação humano-computador para além da diversidade, visto que autores apontam que seria necessário, além de uma composição mais diversa das equipes responsáveis pelo design dos algoritmos, também a capacitação dos operadores na difícil tarefa de traduzirem valores humanos para o código. Neste cenário, este artigo propõe que endereçar as questões éticas subjacentes ao debate teórico sobre modelos, tomadas de decisão automatizadas e “profiling” é paradoxal e desafiador, porém essencial para que a tecnologia alcance seu potencial emancipatório. Introdução: conceitos e aspectos essenciais sobre inteligência artificial Abaixo os principais termos técnicos e conceitos empregados pela literatura acadêmica nos temas transversais à inteligência[2] artificial são dispostos com maior detalhamento para a melhor compreensão e fluidez dos próximos tópicos, nos quais a interlocução entre autores e a relação entre conceitos é mais profunda. Algoritmo é uma sequência finita de instruções bem definidas e não ambíguas, cujas características são: finitude (de passos, tempo e recursos), exatidão (clareza e precisão), e efetividade. Neste sentido, quanto maior a complexidade da tarefa a ser realizada, maior deve ser o detalhamento das instruções a fim de evitar ambiguidade. Também vale citar a concepção de Letouzé (2015, apud Cetic.br, 2018): “Na ciência da computação, um algoritmo é uma série de instruções ou regras predefinidas, escritas em uma linguagem de programação destinada para dizer a um computador como resolver sequencialmente um problema recorrente, especialmente ao envolver a realização de cálculos e o processamento de dados. Há um crescente uso de algoritmos para fins de tomada de decisão em uma progressiva gama de atividades e indústrias, tais como policiamento e serviços bancários”. Para fins deste artigo, adota-se a concepção de Schermer (2011), para quem inteligência artificial é o conceito usado para descrever sistemas computacionais que são capazes de aprender a partir de suas próprias experiências e resolver problemas complexos em diferentes situações – habilidades que anteriormente pensamos ser únicas em seres humanos[3]. Trata-se, também, de um termo guarda- chuva que engloba diversos tipos de “machine learning” (“aprendizado de máquina”), que pode ser definido como “um conjunto de técnicas e mecanismos que permite que computadores ‘pensem’ ao criar algoritmos matemáticos baseados em dados acumulados”. Aprendizado de máquina, por outro lado, engloba o conceito de “deep learning” (“aprendizado profundo”), considerando-se que alguns tipos de aprendizado profundo são criados com os mesmos princípios de redes neurais do cérebro e geralmente são baseados em um conjunto conhecido de “training data” (“dados de treinamento”) que auxilia os algoritmos de autoaprendizado a desenvolver uma tarefa. Também fazendo referência a Letouzé (2015, apud Cetic.br, 2018): “[aprendizado de máquina] refere-se à construção e estudo de algoritmos computacionais – procedimentos, passo a passo, para cálculos e/ou classificação – que podem aprender a crescer e mudar quando expostos a novos dados. Representa a capacidade das máquinas de ‘aprender’ a fazer previsões e tomar decisões melhores com base em experiências passadas, como na filtragem de spam, por exemplo”. Sistemas construídos sobre algoritmos de aprendizado de máquina desenvolvem modelos, termo que designa um programa computacional relacionado a uma finalidade analítica determinada pelas instruções contidas em seu código. Quando falamos de modelos, a capacidade de entender (ou, sob a ótica dos desenvolvedores do código, de explicar) como os “outputs” (“resultados”) foram produzidos a partir dos “inputs” (“dados de entrada”) varia de acordo com a complexidade do modelo em si. Vale mencionar, não sem motivo, que é possível expressar modelos como equações matemáticas, se reduzidos às linhas de código. Ainda que seja possível elencar uma grande variedade de métodos, abordagens e modelos[4], o de maior interesse para este artigo diz respeito às “neural networks” (“redes neurais”), conforme explicitado abaixo. Redes neurais são construídas sobre uma metodologia que é em muito inspirada pelo nosso entendimento da forma como o cérebro funciona. Tais redes são estruturadas sobre componentes individuais denominados “perceptron” que, se engatilhados uns aos outros, podem criar redes grandes e complexas. Note-se que “perceptron” é um modelo matemático que recebe “inputs” (“dados de entrada”) e produz uma única saída binária (“output”) de acordo com os pesos atribuídos a cada um dos dados de entrada[5]. Em outras palavras, cada variável tem um peso que determina o quanto a característica presente no “input” (“dado de entrada”) respectivo influenciará no “output” (“resultado”) final. Uma rede neural consiste em três partes, na seguinte ordem: “input layer” (“camada de entrada”), “hidden layer” (“camada oculta”), e “output layer” (“camada de saída”). Se há mais de um “hidden layer” (“camada oculta”), então o “machine learning” (“aprendizado de máquina”) é considerado um “deep learning” (“aprendizado profundo”). Na perspectiva estrita de redes neurais, por outro lado, a presença de mais de uma camada oculta entre a camada de entrada e a camada de saída caracteriza uma rede neural como “deep neural network” (“rede neural profunda”). Um dos desafios das redes neurais é que, da forma como descritas acima, cada “input” (“dado de entrada”) é visto de forma isolada. Ocorre que, em muitas situações, trabalha-se com informações que têm um contexto. Algumas palavras, por exemplo, possuem um significado diferente a depender do contexto em que estão inseridas, e este contexto nem sempre é expresso pela mesma sentença. É também por isso que algumas redes neurais possuem a forma de uma memória de curto tempo (“short-term memory”). Isso tanto permite diferentes “outputs” (“resultados”) baseados nos “inputs” (“dados de entrada”) inseridos previamente, quanto significa que pode ser muito difícil simplesmente examinar os algoritmos para entender como eles funcionam e quais decisões eles tomam. Disso decorre que as capacidades de aprendizagem e de tomada de decisão das redes neurais estão relacionadas ao que Pasquale (2015) conceitua como “black box” (“caixa preta”) devido à obscuridade de seu processo decisório[6]. No mais, a literatura acadêmica também trata sistemas de aprendizado de máquina, em especial de aprendizado profundo, como sendo, na maior parte dos casos, quase impossíveis de terem seu caminho lógico refeito para entender o porquê de uma operação (ROBERTO, 2020). Note-se também que, nas palavras de Cathy O’Neil, modelos matemáticos, por sua natureza, são baseados no passado e nas suposições de que os padrões se repetirão (O’NEIL, 2016, p. 38, tradução nossa)[7]. A autora ainda afirma (2016, p. 20- 21): “There would always be mistakes, however, because models are, by their nature, simplifications. […] Inevitably, some important information gets left out. […] To create a model, then, we make choices about what’s important enough to include, simplifying the world into a toy version that can be easily understood and from which we can infer important facts and actions. […] A model’s blind spots reflect the judgements and priorities of its creators.” Conforme será exposto a seguir, a “codificação do passado” e o aspecto decisório (ou os “blind spots” fundados nas crenças do cientista de dados que escreve as linhas de código) pode representar uma ameaça ao potencial emancipatórioda tecnologia. Profiling: representando indivíduos em grupos com base em padrões de comportamento fundados em estatísticas O que é “profiling”? De acordo com a literatura acadêmica, a técnica de “profiling” pode ser definida como: “Profiling is the process of discovering correlations between data in databases that can be used to identify and represent a human or nonhuman subject (individual or group) and/or the application of profiles (sets of correlated data) to individuate and represent a subject or to identify a subject as a member of a group or category”[8]. Desde táticas antiterrorismo[9], passando por microdirecionamento[10] e impulsionamento de conteúdo em época eleitoral[11], credit scoring até chegar à publicidade comportamental[12], a técnica de perfilhamento[13] está tão presente em nosso cotidiano quanto os documentários sobre os “perigos ocultos” e “efeitos nocivos” de algoritmos de redes sociais. As mensagens de “este site utiliza cookies[14]–[15] e tecnologias semelhantes para otimizar sua experiência de navegação” ou similares, exibidas a cada nova janela aberta em um navegador web (e que se tornaram mais frequentes ainda após a entrada em vigor da Lei Geral de Proteção de Dados Pessoais em setembro de 2020) denunciam: estamos sendo “perfilhados”. Os riscos associados à técnica de “profiling”: uma crítica ao “viés” de privacidade no olhar sobre “profiling” Conforme aponta Schermer (2011), há atualmente uma supervalorização dos riscos associados entre a técnica de “profiling” e a privacidade dos usuários da rede. O excesso de enfoque dado a esta perspectiva de análise acaba ofuscando outros riscos que a criação de perfis de comportamento online e a mineração de dados[16] podem representar para grupos e indivíduos. Para o autor, os riscos mais significativos associados à criação de perfis e à mineração de dados são: 1. Discriminação: A classificação e divisão estão no centro da mineração de dados, sobretudo a preditiva. Como tal, a discriminação (em sua acepção relativa à “capacidade de distinguir”) é parte integrante da criação de perfis de comportamento online e da mineração de dados. No entanto, há situações em que a discriminação é considerada antiética e ilegal[17]. 2. Desindividualização: Em muitos casos, a mineração de dados é, em grande parte, relacionada à classificação e, portanto, há o risco de que as pessoas sejam julgadas com base nas características do grupo e não em suas próprias características individuais. Os perfis de grupo geralmente contêm estatísticas e, portanto, as características dos perfis de grupo podem ser válidas para o grupo e para indivíduos como membros desse grupo, embora não para indivíduos como tal. 3. Assimetrias de informação: A mineração de dados pode levar a informações valiosas para as organizações que lançam mão desse artifício. Quando este mecanismo visa obter mais informações sobre indivíduos ou grupos, encontramos o problema da assimetria informacional, o que gera um desequilíbrio de poder entre as partes. A questão sobre a qual este artigo se debruça é o primeiro problema listado por Schermer, sem, no entanto, desprezar os riscos associados às demais problemáticas levantadas pelo autor. Uma proposta conceitual sobre “profiling”: as três camadas de dados dos perfis de comportamento na Internet Szymielewicz (2019) defende a tese, com a qual este artigo está alinhado, de que a identidade digital dos usuários da rede possui três camadas, das quais é possível proteger, a priori, somente uma. A autora discorre que as camadas que compõem os perfis são[18]: 1. O que você compartilha: Trata-se dos dados que você escolhe compartilhar nas redes sociais e aplicativos móveis. Em tradução autorizada por Szymielewicz[19], diz-se que “[são] dados que você alimenta em mídias sociais e aplicativos móveis. Isso inclui o que você revelou em suas informações de perfil, suas postagens públicas e mensagens privadas, curtidas, consultas de pesquisa, fotos enviadas, testes e enquetes que você realizou, eventos que participou, sites visitados e outros tipos de interações conscientes”. 2. O que seu comportamento diz aos algoritmos (padrão de comportamento): São os dados cuja contextualização permite aos algoritmos correlacionarem metadados e, a partir deles, criar padrões do seu comportamento na rede e fora dela. 3. O que a máquina pensa sobre você (inferências e categorizações em perfis de grupo): É a análise preditiva que relaciona seu comportamento a padrões (principalmente de consumo) que você não imagina – pelo menos não conscientemente – por meio da correlação do seu padrão comportamental ao de um grupo com comportamento parecido e cujo “match” é estatisticamente alto. Logo, as chances de você pertencer àquele grupo (ou seja, responder da mesma forma aos mesmos estímulos) é – frise-se, do ponto de vista estatístico – muito alta. Em outras palavras, trata-se da inferência de conclusões sobre seus dados – sejam eles compartilhados (in)voluntariamente por você (primeira camada), sejam eles o rastreamento de padrões sobre o qual você não tem escolha (segunda camada). A literatura acadêmica sobre discriminação algorítmica e sua intersecção com práticas baseadas em “profiling” e decisões automatizadas demonstram que decisões auturiais, ou estatísticas, a respeito de seres humanos não só são comuns em qualquer sistema jurídico e indispensáveis, como também alegadamente têm sob si uma racionalidade econômica – como formulam Mendes e Mattiuzzo (2019, p. 50): “Em outras palavras, agentes oferecem opiniões sobre outros indivíduos baseadas em características observáveis, as quais, por sua vez, são utilizadas como substitutas de outras características não observáveis”. As autoras elencam quatro tipos de discriminação algorítmica[20]: discriminação por erro estatístico; discriminação por generalização; discriminação por uso de informações sensíveis; e discriminação limitadora do exercício de direitos. Há que se examinar, neste sentido, que a automação e a generalização enquanto conceitos isolados e descontextualizados podem não ser considerados nocivos. É o que parece ter concluído o legislador pátrio ao determinar a redação do princípio da não discriminação consagrado no art. 6º, IX da Lei Geral de Proteção de Dados Pessoais (Lei 13.709, de 14 de agosto de 2019), visto que a proibição ao tratamento de dados pessoais é restrita a finalidades discriminatórias “ilícitas” (a exemplo do que dispõe o art. 11, § 5º da Lei) ou “abusivas”, conforme delimitado acima. A ausência de diversidade no perfil dos atores nos espaços de criação e tomada de decisão dos mecanismos tecnológicos Algoritmos são criações humanas, afinal – e as implicações de times pouco diversos sobre tomadas de decisão automatizadas Neste tópico, será tratada a sub-representação de minorias no ecossistema da tecnologia, sobretudo nos espaços próprios para a criação e tomada de decisão a respeito de diretrizes de desenvolvimento da tecnologia na sociedade contemporânea. Conforme discorre Saboya (2013): “Segundo pesquisas realizadas por essa mesma autora (ROSSITER, 1982, 1995, 2003), os preconceitos se revelam na alocação de postos de trabalho: delegam-se às mulheres tarefas repetitivas e consideradas femininas, como por exemplo, as que demandariam qualificações específicas – expressão essa que seria um eufemismo para tarefas repetitivas e consequentemente mal pagas – que exigiriam maior cuidado e atenção (como as relacionadas ao posto de auxiliar nos laboratórios) e que, por conseguinte, deixariam as mulheres fora dos círculos de decisão; em outras palavras, atividades que as impossibilitariam de subir na carreira acompanhando seus colegas homens. Além disso, as mulheres fariam carreiras mais longas, demorando-se mais que os homens nos diferentes níveis, em razão de casamento e/ou filhos, o que lhes exigiria uma dupla jornada de trabalho”[21]. Dito isso, importante pontuar que os mecanismos tecnológicos incorporam pelas linhas de código um certo olhar e entendimento de mundo própriodo cientista de dados responsável pela modelagem e manipulação das informações a seu dispor, o que nos recorda o aspecto decisório de quais pontos cegos (ou os “blind spots”) serão deixados para trás em determinada circunstância. Reitere-se, portanto: a simplificação do mundo transcrita no aspecto decisório de um modelo matemático embutido em um algoritmo de aprendizado de máquina pode representar uma ameaça ao potencial emancipatório da tecnologia. Desde a seleção de quais dados são relevantes para que se direcione o alvo do mecanismo, passando pelo dimensionamento do valor (“peso”) dado aos diferentes dados coletados (“inputs” ou “dados de entrada”) e pelas inferências de padrão possíveis a partir de tais dados, até chegar à tomada de decisão em si, o algoritmo não passa de um arquétipo idealizado por um ser humano. Nas palavras da publicação “Panorama Setorial da Internet” (Ano 10, N. 2) do Cetic.br: “Algoritmos são um reflexo do comportamento humano; até quando não expressos explicitamente, certos vieses presentes nos dados e nas decisões de projeto podem ser influentes no comportamento do sistema. Por isso, em alguns casos, decisões baseadas em algoritmos podem reproduzir ou reforçar um viés negativo, com padrões de discriminação e manutenção de estereótipos, como herança de decisões preconceituosas de pessoas ou simplesmente pelos dados refletirem aspectos culturais, históricos e socio- demográficos existentes na sociedade”[22]. O que em um primeiro momento pode parecer pouco factível agrega em um só caso os quatro apontamentos mais importantes levantados pela Casa Branca[23] sobre a escolha de alguns dados de entrada em detrimento de outros no desenho de uma rede neural treinada por inteligência artificial. São eles: 1. Dados mal selecionados, em que os projetistas do sistema algorítmico decidem que certos dados são importantes para a decisão, mas não para outros. No exemplo da “rota mais rápida”, o arquiteto do sistema pode incluir apenas informações sobre estradas, mas não sobre horários de transporte público ou rotas de bicicleta, o que prejudica indivíduos que não possuem um veículo. Tais questões podem ser consideradas como erros qualitativos, em que as escolhas humanas na seleção de certos conjuntos de dados como entradas algorítmicas sobre outras são mal aconselhadas. Escolhas descuidadas de entrada podem levar a resultados tendenciosos – no exemplo da “rota mais rápida”, resultados que podem favorecer rotas para carros, desencorajar o uso do transporte público e criar desertos em trânsito. De forma semelhante, os projetistas podem selecionar dados com muita ou pouca granularidade, resultando em efeitos potencialmente discriminatórios. 2. Dados incompletos, incorretos ou desatualizados, em que pode haver falta de rigor técnico e abrangência na coleta de dados, ou onde inexatidões ou lacunas podem existir nos dados coletados. No exemplo da “rota mais rápida”, isso poderia ocorrer se, por exemplo, o sistema algorítmico não atualizasse as programações de ônibus ou trem regularmente. Mesmo que o sistema funcione perfeitamente em outros aspectos, as instruções resultantes podem desencorajar novamente o uso do transporte público e prejudicar aqueles que não têm alternativas viáveis, como muitos passageiros e residentes de baixa renda. 3. “Bias”[24] (“viés”) de seleção, por meio do qual o conjunto de entradas de dados para um modelo não é representativo de uma população e, portanto, resulta em conclusões que podem favorecer determinados grupos em detrimento de outros. No exemplo da “rota mais rápida”, se os dados de velocidade forem coletados apenas dos indivíduos que possuem smartphones, os resultados do sistema podem ser mais precisos para populações mais ricas com concentrações mais altas de telefones inteligentes e menos precisos nas áreas mais pobres onde as concentrações de smartphones são mais baixas. 4. Perpetuação não intencional e promoção de “bias” (“vieses”) históricos[25], em que um loop de feedback faz com que o “bias” nas entradas ou nos resultados do passado se replique nas saídas de um sistema algorítmico. Por exemplo, quando as empresas enfatizam a “contratação por fit cultural” em suas práticas de emprego, elas podem inadvertidamente perpetuar os padrões de contratação passados se a cultura atual do local de trabalho for baseada principalmente em um conjunto específico e restrito de experiências. Em um local de trabalho ocupado principalmente por homens brancos jovens, por exemplo, um sistema algorítmico projetado principalmente para contratar por cultura (sem levar em conta outras metas de contratação, como diversidade de experiência e perspectiva) pode recomendar desproporcionalmente contratar mais homens brancos porque eles pontuam melhor em se encaixar com a cultura. A síntese das problemáticas listadas acima é condensada no documentário “Coded Bias”, que reflete as preocupações mais recentes sobre proteção de direitos civis contra vigilância e discriminação baseada em algoritmos com vieses. De quebra, a produção conta com a estimulante participação de pesquisadoras conceituadas na intersecção entre ética, inteligência artificial e discriminação – Joy Buolamwini, Cathy O’Neil, Safiya Noble e Timnit Gebru. O filme é um primado da documentação artística por conciliar conceitos científicos complexos e o cotidiano e realidade de usuários da Internet, o que tem um alto potencial de impacto. Assim, como herança de decisões discriminatórias de pessoas ou simplesmente pelos dados refletirem aspectos culturais, históricos e sóciodemográficos existentes na sociedade (Cetic.br, 2018), é importante que haja a expansão de iniciativas de inclusão e diversidade nos setores público e privado para que o perfil dos atores envolvidos no processo criativo e decisório sobre mecanismos tecnológicos abranja grupos sub-representados no ecossistema da tecnologia, pois estes são os principais afetados pela perpetuação dos preconceitos estruturais da sociedade contemporânea. Para além da composição dos times do ecossistema de tecnologia – um breve apontamento sobre a importância do pensamento crítico nas carreiras de TICs Contudo, iniciativas de inclusão e ampliação da diversidade no ambiente corporativo (sobretudo em espaços criativos e decisórios) não são o suficiente para endereçar os tópicos levantados ao longo do artigo. Conforme pontuam autores como Sorelle Friedler (apud Sara Wachter-Boettcher, 2017, p. 136), Cathy O’Neil (2016, p. 155; 204) e Mendes e Mattiuzzo (2019, p. 60), a redução dos vieses[26] presente nos modelos tecnológicos tem no componente humano seu aspecto central[27]. Neste sentido, as pessoas que lidam diretamente com as linhas de código dos modelos (isto é, os próprios “modelers”, os cientistas de dados em si) deveriam ser capacitados a pensar de forma crítica sobre os dados que estão manipulando, as escolhas que estão fazendo, os efeitos do uso daquele mecanismo no mundo real e, talvez mais importante, os aspectos éticos e morais de seu próprio processo de tomada de decisão. Nessa esteira, o ensinamento de Cathy O’Neil (2016, p. 218) é basilar: “Predictive models are, increasingly, the tools we will be relying on to run our institutions, deploy our resources, and manage our lives. But as I’ve tried to show throughout this book [Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy], these models are constructed not just from data but from the choices we make about which data to pay attention to – and which to leave out. Those choices are not just about logistics, profits, and efficiency. They are fundamentally moral. If we back away from them and treat mathematical models as a neutral and inevitable force, like the weather or the tides, we abdicate our responsibility.” Conclusão Este artigo teve como objetivo mapear os debates teóricos sobre inteligência artificial e inclusão, dando ênfase a um possível e paradoxal reposicionamento da interação humano-computador. De um lado, a técnica de “profiling” possuiriscos associados principalmente a discriminação algorítmica, visto que modelos matemáticos embutidos em sistemas de inteligência artificial operam à base de padrão, correlação e predição, para então relacionar um perfil individual ao de um grupo de acordo com estatísticas. Contudo, conforme demonstrado ao longo do texto, automação e generalização não são conceitos que, isolados e descontextualizados devem ser considerados nocivos, mas sim quando o tratamento de dados pessoais for realizado com finalidade “ilícita” ou “abusiva”. Por outro, percebe-se que algoritmos são arquétipos humanos e, por isso, carregam consigo aspectos culturais, históricos e sócio demográficos existentes na sociedade. Não é por outra razão que políticas de inclusão no setor privado e público são urgentes a fim de que os mecanismos tecnológicos sejam menos excludentes e não mais reproduzam a “codificação do passado”. Por fim, uma terceira e incipiente questão é levantada em atenção ao que pesquisadores têm proposto sobre a interação humano-computador: a centralidade do componente e da inteligência humana (alguns diriam que a única de fato inteligente nesta relação) para que a projeção do passado para o futuro não perpetue nossas estratificações sociais, com todas as injustiças existentes (O’NEIL, 2016, p. 70). Assim, o aprimoramento e o desenvolvimento tecnológico passam necessariamente pelo pensamento crítico dos “modelers”, cientistas de dados ou, de forma mais ampla, das pessoas responsáveis pela manipulação e modelagem das informações à sua disposição para a criação de modelos. O’Neil (e o autor deste artigo) não fogem da responsabilidade de assumir que a proposta é um paradoxo, se considerarmos o histórico do mercado financeiro e da construção de algoritmos de scoring de crédito. Contudo, assim como não é possível retornar a uma realidade em que o cartum de Peter Steiner no The New Yorker faz sentido[28], também não há e tampouco haverá espaço para um horizonte tecnológico que não enderece questões éticas relacionadas a seu próprio desenvolvimento. Bibliografia BIGONHA, Carolina. (2018). Panorama setorial da Internet: Inteligência Artificial em perspectiva. In: Inteligência Artificial e ética, Ano X, Número 2. Cetic.br. BIONI, Bruno R. Privacidade e proteção de dados pessoais em 2018: Três pautas que prometem esquentar o debate brasileiro. BOLUKBASI, Tolga et al. Man is to computer programmer as woman is to homemaker? debiasing word embeddings. arXiv preprint arXiv:1607.06520, 2016. BKRAN, Maja. AI-Supported Decision-Making under the General Data Protection Regulation. BROWNSWORD, Roger. Knowing me, knowing you – Profiling, Privacy and the Public Interest, pp. 345 – 363. In: Profiling the European Citizen. BYGRAVE, L. (2001) Automated Profiling, Minding the Machine: Article 15 of the EC Data Protection Directive and Automated Profiling. Computer Law & Security Review 17(1):17-24. COGITAS, Ergo Sum. The Role of Data Protection Law and Non- discrimination Law in Group Profiling in the Private Sector. DATATILSYNET, The Norwegian Data Privacy Authority (2018). AI and Privacy. DEIGHTON, John. “Market Solutions to Privacy Problems?” Chap. 6 in Digital Anonymity and the Law – Tensions and Dimensions. Vol. II, edited by C. Nicoll, J.E.J. Prins, and M.J.M. van Dellen, 137 – 146. Information Technology & Law Series. The Hague: T.M.C. Asser Press, 2003. ELECTRONIC FRONTIER FOUNDATION (2021). Google’s FLoC Is a Terrible Idea. FEDERAL TRADE COMMISSION OF THE UNITED STATES OF AMERICA (2014). Data Brokers: A Call for Transparency and Accountability. INSTITUTO IGARAPÉ (2018). Existe um direito à explicação na Lei Geral de Proteção de Dados do Brasil? Artigo Estratégico 39 | Dezembro 2018. KAMARINOU, Dimitra et al. “Machine Learning with Personal Data: Profiling, Decisions and the EU General Data Protection Regulation”. KAMBER, Micheline; PEI, Jian. (2012). Data mining: concepts and techniques. 3rd ed. ISBN 978-0-12-381479-1. LETOUZÉ, Emmanuel (2018). Big Data e desenvolvimento: uma visão geral. In: Big Data para o desenvolvimento. Ano X, Número 1. Cetic.br. LUCENA, Pedro Arthur Capelari de. Policiamento preditivo, discriminação algorítmica e racismo: potencialidades e reflexos no Brasil. McCLURG, Andrew J. (2003) A Thousand Words Are Worth a Picture: A Privacy Tort Response to Consumer Data Profiling, 98 Nw. U. L. Rev. 63 (2003). MENDES, Laura Schertel; MATTIUZZO, Marcela (2019). Discriminação Algorítmica: Conceito, Fundamento Legal e Tipologia. Direito Público, [S.I.], v. 16, n. 90, dez. 2019. ISSN 2236-1766. O’NEIL, Cathy. Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy. Crown Publishing Group, USA (2016). POWLES, J; NISSENBAUM, H (2018). The Seductive Diversion of ‘Solving’ Bias in Artificial Intelligence: Trying to “fix” A.I. distracts from the more urgent questions about the technology. PROGRAMARIA; C.A. Technologies. Por que o machismo cria barreiras para as mulheres na tecnologia. NAVARRO, Ana Maria. N. P. O Direito Fundamental à Autodeterminação Informativa. In: CONPEDI/UFF. (Org.). XXI Congresso Nacional do CONPEDI. 1ed.: FUNJAB, 2012. ROCHA, Elisa Corrêa da. (2015). O direito à autodeterminação informativa e a proteção de dados pessoais. SABOYA, Maria Clara Lopes (2013): “Relações de Gênero, Ciência e Tecnologia: Uma Revisão da Bibliografia Nacional e Internacional”. Educação, Gestão e Sociedade: revista da Faculdade Eça de Queirós, ISSN 2179-9636, Ano 3, número 12, novembro de 2013. SCARISBRICK-HAUSER, Anne Marie. Data analysis and profiling. SCHERMER, Bart W (2011). The limits of privacy in automated profiling and data mining. In: Computer law & security review 27. SZYMIELEWICZ, Katarzyna (2019) Your digital identity has three layers, and you can only protect one of them. In: Quartz online, Ideas Series. TEIXEIRA, Lucas (2015). Data Brokers e Profiling: vigilância como modelo de negócios. WHITE HOUSE (2016). “Big Data: A Report on Algorithmic Systems, Opportunity, and Civil Rights”. 1. Bacharel em direito pela Universidade de São Paulo (USP). Participou do Grupo de Pesquisa em Inteligência Artificial e Inclusão do ITS Rio como ouvinte. E-mail: maru.arvigo@gmail.com. ↵ 2. O uso do termo “inteligência” no que se denomina “inteligência artificial” tem sido contestado por pesquisadores. Neste sentido, dois livros são indicativos autores têm pontuado a respeito da “inteligência” de algoritmos: “Algorithms Are Not Enough: Creating General Artificial Intelligence”, de Herbert L. Roitblat, e “Artificial Unintelligence: How Computers Misunderstand the World”, de Meredith Broussard. Uma indicação de leitura mais breve é a contribuição de Elizabeth Fernandez em sua coluna na Forbes que, em 2019, escreveu: “AI Is Not Similar To Human Intelligence. Thinking So Could Be Dangerous”. Ver também artigo publicado por Ragnar Fjelland, Professor Emérito do Centro de Estudos das Ciências e Humanidades da Universidade de Bergen, Noruega, na Nature: “Why general artificial intelligence will not be realized”. ↵ 3. É importante que seja feita a ressalva, contudo, de que a disputa a respeito do termo “inteligência” (cf. nota de rodapé n. 2) é de extrema relevância e deve ser acompanhada de perto por juristas, cientistas sociais, cientistas da computação e todos os interessados no desenvolvimento ético da tecnologia. ↵ 4. Paulo Sá Elias detalha outros modelos em seu artigo “Algoritmos, Inteligência Artificial e o Direito”. Disponível em: https://www.conjur.com.br/dl/algoritmos-inteligencia- artificial.pdf. Acesso em: 23.03.21. ↵ 5. Para uma compreensão mais profunda do que são redes neurais e o que é um perceptron, recomenda-se a leitura “Deep Learning Book”, cujo capítulo a respeito do tema está integralmente disponível na Internet para acesso gratuito. ↵ 6. Pesquisas e debates têm sido conduzidos sobre “Explainable AI” (XAI). Desenvolvidos sobretudo no Hemisfério Norte e com diferentes abordagens sobre o que de fato significa uma IA “explicável”, os papers abordamsoluções, arquiteturas e técnicas que poderiam diminuir a opacidade dos algoritmos de aprendizado de máquina. ↵ 7. No original: “[That was a concern, because] mathematical models, by their nature, are based on the past, and on the assumption that patterns will repeat”. ↵ 8. Hildebrandt, M. (2008): Defining Profiling: A New Type of Knowledge? In: Profiling the European Citizen, Cross-Disciplinary Perspectives (Hildebrandt, M., Gutwirth, S., eds.), Springer Science, p. 17. ↵ 9. “In the wake of the 9/11 terror attacks against the United States, John Poindexter, the highest-ranking official to be criminally convicted in the Iran-Contra debacle in the mid-1980s, successfully pitched an idea to the U.S. Defense Department to create a computerized surveillance system to track the everyday activities of all American citizens with the goal of ferreting out terrorists. The program, known originally as Total Information Awareness (TIA) would apply sophisticated computer data-mining techniques to sift through virtual mountains of data of everyday transactions, such as credit card purchases, e-mail and travel itineraries, in an attempt to discover patterns predictive of terrorist activity. If implemented, TIA's exercise in data mining would, in the words of one critic, ‘amount to a picture of your life so complete it's equivalent to somebody following you around all day with a video camera’.” Andrew J. McClurg, A Thousand Words Are Worth a Picture: A Privacy Tort Response to Consumer Data Profiling, 98 Nw. U. L. Rev. 63 (2003). Disponível em: https://papers.ssrn.com/sol3/papers.cfm?abstract_id=1628724. Acesso em: 20.02.2019. ↵ 10. "Online political microtargeting involves ‘creating finely honed messages targeted at narrow categories of voters’ based on data analysis ‘garnered from individuals’ demographic characteristics and consumer and lifestyle habits’. Online political microtargeting can take the ‘form of political direct marketing in which political actors target personalized messages to individual voters by applying predictive modelling techniques to massive troves of voter data’. Online political microtargeting could also be seen as a type of behavioural advertising, namely political behavioural advertising. Behavioural advertising is a modern marketing technique that involves tracking people’s online behaviour to use the collected information to display individually targeted advertisements. Online political microtargeting is used, for example, to identify voters who are likely to vote for a specific party and therefore can be targeted with mobilising messages. (For ease of reading, we also refer to ‘microtargeting’). Microtargeting also enables a political party to select policy stances that match the interests of the targeted voter – for instance family aid for families, or student benefits for students." Borgesiues et al: Online Political Microtargeting: Promises and Threats for Democracy, Utrecht Law Review, v. 14, issue 1, 2018. Disponível em: https://www.ivir.nl/publicaties/download/UtrechtLawReview.pdf. Acesso em: 20.02.2019. Para mais informações a respeito, sugiro a leitura do conteúdo disponível em http://www.internetlab.org.br/pt/tag/microdirecionamento/. Também é interessante visitar o site a seguir, cujo projeto monitora o microdirecionamento e perfilhamento psicológico durante as eleições em diversos países do mundo: https://whotargets.me. ↵ 11. Para mais informações a respeito, sugiro a leitura de “O que esperar do patrocínio de posts de candidatos durante a eleição” (VENTURINI, 2018). Disponível em: https://www.nexojornal.com.br/expresso/2018/01/07/O-que- esperar-do-patroc%C3%ADnio-de-posts-de-candidatos-durante-a- elei%C3%A7%C3%A3o. Acesso em: 20.02.2019. ↵ 12. Uma interessante intersecção pode ser feita com o artigo publicado por Fernando Inglez de Souza Machado e Regina Linden Ruaro: “PUBLICIDADE COMPORTAMENTAL, PROTEÇÃO DE DADOS PESSOAIS E O DIREITO DO CONSUMIDOR”. Disponível em: https://indexlaw.org/index.php/conpedireview/article/view/3745. Acesso em: 28.03.21. ↵ 13. Tradução livre do termo “profiling”, o termo “perfilhamento” foi adotado em referência ao artigo de Bruno Bioni no JOTA, em que o autor sugere quais seriam 3 pautas quentes para a temática de privacidade e proteção de dados pessoais em 2018. Disponível em: https://www.jota.info/opiniao-e-analise/colunas/agenda-da- privacidade-e-da-protecao-de-dados/privacidade-e-protecao-de- dados-pessoais-em-2018-15012018. Acesso em: 28.03.21. ↵ 14. “Cookies são arquivos criados pelos websites que você visita. Eles tornam sua experiência on-line mais fácil, economizando informações de navegação. Com os cookies, os sites podem manter você conectado, lembrar suas preferências do site e fornecer conteúdo relevante localmente. Existem dois tipos de cookies: (i) Cookies primários: criados pelo site que você acessa. O site é exibido na barra de endereços; e (ii) Cookies de terceiros: criados por outros sites. Esses sites possuem uma parte do conteúdo, como anúncios ou imagens, que você vê na página da Web que acessa.” Disponível em: https://support.google.com/chrome/answer/95647? co=GENIE.Platform%3DDesktop&hl=pt-BR. Acesso em 05.04.21. ↵ 15. A respeito disso, é interessante notar as recentes propostas do Google - e as reações da sociedade civil e empresas concorrentes - pelo bloqueio de cookies de terceiros, tecnologia utilizada para rastrear a navegação de usuários, por meio do Privacy Sandbox. Para isso, a empresa anunciou que substituirá tal tecnologia por um mecanismo de agrupamento de usuários com comportamentos semelhantes, o que, alega o Google, não mais permitirá a identificação individualizada dos usuários da Internet. Contudo, a Electronic Frontier Foundation, uma das organizações não governamentais mais proeminentes do mundo na defesa da liberdade de expressão e privacidade na Internet, rebateu dizendo que a iniciativa é uma “terrível ideia”. Nota da EFF disponível em: https://www.eff.org/pt- br/deeplinks/2021/03/googles-floc-terrible-idea. Acesso em: 23.03.21. ↵ 16. "Data mining is the process of discovering interesting patterns and knowledge from large amounts of data. The data sources can include databases, data warehouses, the Web, other information repositories, or data that are streamed into the system dynamically" (HAN, KAMBER & PEI, 2012). ↵ 17. Sob a perspectiva da proteção de dados e da privacidade, o ordenamento jurídico brasileiro incorporou o princípio da não discriminação ao inseri-lo dentre o rol de princípios da Lei Geral de Proteção de Dados (Lei 13.709, de 14 de agosto de 2019), consagrados no art. 6º da Lei. ↵ 18. Um gráfico, criado pela Panoptykon Foundation (Polônia), que demonstra de forma lúdica quais dados estão associados a cada uma dessas camadas está disponível em: https://panoptykon.org/sites/default/files/3levels.png. Acesso em: 20.02.2019. ↵ 19. À época da re-publicação deste trabalho, o link para a versão traduzida do artigo de Szymielewicz estava quebrado. Por este motivo, disponibilizo a versão original: “Your digital identity has three layers, and you can only protect one of them”. Disponível em: https://qz.com/1525661/your-digital-identity-has-three-layers- and-you-can-only-protect-one-of-them/. Acesso em: 23.03.21. ↵ 20. Conforme explicitam as autoras, o significado de “discriminação algorítmica” para o artigo expressa: “Feitas estas observações, vale esclarecer que o termo ‘discriminação algorítmica’ utilizado, neste artigo, para englobar tanto cenários que envolvem afirmações estatisticamente inconsistentes quanto cenários em que as afirmações, embora estatisticamente lógicas, de alguma forma tomam os indivíduos que dela são objeto não de forma efetivamente individualizada, mas apenas como parte de um grupo. Isso porque, a nosso ver, uma classificação, ainda que consistente sob o ponto de vista estatístico, pode em alguns casos se mostrar injusta.” ↵ 21. SABOYA, Maria Clara Lopes (2013): "Relações de Gênero, Ciência e Tecnologia: Uma Revisão da Bibliografia Nacionale Internacional". Educação, Gestão e Sociedade: revista da Faculdade Eça de Queirós, ISSN 2179-9636, Ano 3, número 12, novembro de 2013. Disponível em: http://uniesp.edu.br/sites/_biblioteca/revistas/20170509155548.pdf. Acesso em: 20.02.2019. ↵ 22. Cetic.br (2018): "Panorama Setorial da Internet", Ano 10, N. 2. Disponível em: https://cetic.br/media/docs/publicacoes/1/Panorama_outubro_2018_online.pdf. Acesso em: 20.02.2019. ↵ 23. “Big Data: A Report on Algorithmic Systems, Opportunity, and Civil 23. “Big Data: A Report on Algorithmic Systems, Opportunity, and Civil Rights”. Disponível em: https://obamawhitehouse.archives.gov/sites/default/files/microsites/ostp/2016_0504_data_discrimination.pdf. Acesso em 20.02.2019. Cite-se, apenas a título de curiosidade, que a inteligência artificial utilizada para gerar os resultados dito aleatórios (mas que escondem um padrão curioso) é conceituada como uma Generative Adversarial Network (GAN), cujo funcionamento está descrito em: https://www.lyrn.ai/2018/12/26/a-style-based- generator-architecture-for-generative-adversarial-networks/. Acesso em: 20.02.2019. ↵ 24. Interessante notar, conforme aponta Pedro Arthur Capelari de Lucena (2019), que, em países de língua inglesa (notadamente os Estados Unidos), “bias” é o termo utilizado para o impacto dos processos algorítmicos provocados por interpretação de Big Data. O mesmo termo é utilizado em países de língua italiana (sem tradução, portanto “bias”) e espanhola (com tradução, para “sesgo en los algoritmos”). No Brasil, “bias” é entendido como “viés”, acepção distinta de “discriminação”, vocábulo mais comum empregado em textos midiáticos e acadêmicos para refletir os processos algorítmicos preditivos com vieses embutidos. Menção especial deve ser feita à doutrina sobre discriminação algorítmica construída por Laura Schertel Mendes e Marcela Mattiuzzo (2019). ↵ 25. Um exemplo expressivo desta problemática é concretizada em uma estrutura conhecida como “word embedding”, uma abordagem de mineração de textos em que as palavras são representadas de forma matemática em um vetor. Como demonstram Bolukbasi et al. (2016, p. 3) “word-embeddings contain biases in their geometry that reflect gender stereotypes present in broader society. Due to their wide- spread usage as basic features, word embeddings not only reflect such stereotypes but can also amplify them. This poses a significant risk and challenge for machine learning and its applications”. ↵ 26. Ou “discriminação”, conforme debate linguístico apontado na referência n. 38. ↵ 27. O que, para estudiosas como Powles e Nissenbaum, não deixa de ser uma tentativa de resolver um problema computacional estreito (vieses e preconceitos embutidos em sistemas de inteligência artificial) quando, na verdade, a realidade social subjacente a ele é mais ampla, possui uma assimetria imensa entre custos sociais e ganhos privados na esteira da implementação de sistemas automatizados. A tradução e o link para o artigo original pode ser encontrados em: https://dataprivacy.com.br/o-diversionismo- sedutor-de-resolver-os-vieses-na-inteligencia-artificial/. Acesso em: 04.04.21. ↵ 28. A respeito, sugere-se a leitura: https://web.archive.org/web/20171229172420/http://www.nytimes.com/2000/12/14/technology/cartoon- captures-spirit-of-the-internet.html. Acesso em: 05.04.21. ↵ 2. Automação e o futuro do trabalho: Elementos de um roteiro estratégico para a educação e a formação profissional Ana Paula Camelo[1] Cláudio Lucena[2] Resumo: Nenhuma tradição ou modelo de acreditação profissional consegue se isolar dos enormes impactos e das consequências do desenvolvimento tecnológico. À luz deste choque iminente, as instituições que são responsáveis pela formação, preparação e pela acreditação de diversas categorias profissionais em cada sociedade precisam considerar que a incorporação da dimensão digital na visão de mundo que transmitem a seus alunos é um ponto chave. Há uma estratégia global para encapsular uma visão adequada do ambiente digital na educação superior e na formação profissional atual? Que iniciativas poderiam constituir um roteiro possível? Neste artigo, discute-se como esse processo é marcado pela gradativa necessidade de se incorporar competências digitais nas habilidades que são transmitidas e depois cobradas dos alunos em formação das mais distintas áreas do conhecimento e atuação. Paralelamente, mostra-se fundamental refletir sobre o próprio futuro das profissões nesse contexto. Para tanto, o trabalho examina iniciativas que incorporam habilidades de programação à educação especialmente em áreas não-computacionais, como é o caso da área jurídica. Observa-se um movimento de construção de conhecimentos valorizando a multi e interdisciplinaridade e, de certa forma, pelo viés colaborativo através de intercâmbio entre professores, alunos e pesquisadores de históricos e experiências profissionais diferentes, de modo a enriquecer a troca de perspectivas e solucionar problemas comuns. Como desafios, ressalta-se o fato de que as universidades e associações profissionais precisam discutir conjuntamente e de forma crítica o impacto que uma combinação de tecnologias tem tido, redefinindo a forma como atividades e serviços profissionais vêm sendo oferecidos ao longo de séculos. Espera-se que a discussão mobilizada possa contribuir sugerindo passos estratégicos para um roteiro de educação e de acreditação profissional que, ao oferecer oportunidades continuadas de aprendizado, seja instrumento de redução de desigualdades, valorize a realização humana, promova o desenvolvimento sustentável. Introdução A velocidade e o impacto da incorporação de novas tecnologias no cotidiano das pessoas, tanto do ponto de vista pessoal, quanto profissional, se mostra cada vez mais evidente e complexo, demandando um olhar contínuo e crítico para e sobre as transformações em curso não só na indústria, mas na sociedade como um todo: na economia, na forma como nos relacionamos, nos hábitos de consumo de produtos e serviços, como nos comunicamos e como trabalhamos. Nesse contexto, vêm ganhando destaque discussões em torno da ideia de indústria 4.0 ou quarta revolução industrial, na qual “se verificam novos modelos de negócio, bem como remodelações acentuadas nos negócios já existentes” (SCHWAB, 2017, p. 2) em torno de produtos, procedimentos e processos inteligentes. O termo Indústria 4.0 se tornou, de fato, publicamente conhecido somente a partir de 2011 em um contexto de discussão sobre meios e instrumentos para se fortalecer a competitividade da indústria manufatureira alemã naquele contexto (KAGERMANN et al, 2013). A quarta revolução industrial cria um mundo em que os sistemas de fabrico virtual e físico cooperam entre si, de forma flexível. Uma indústria muito mais digital, com fábricas inteligentes, processamento e armazenamento de dados em cloud (nuvem), significativos avanços tecnológicos de inteligência artificial e um conceito apelidado de “Internet das Coisas” (FERREIRA, MARTINS, 2018). Apesar da origem do conceito, das suas raízes no contexto de discussão sobre inovações tecnológicas de automação e tecnologia de informação no âmbito de processos de manufatura, o que se observa hoje são transformações e mudanças em curso atreladas a essa ideia permeando os mais distintos contextos sociais e estilos de vida. É a partir dessa conjuntura que nos interessa observar, com cuidado, a configuração do mercado de trabalho ao longo desse processo e as mudanças ali já ocorrendo. Dentre as várias características, chamam atenção os desafios que podem configurar novos paradigmas no que diz respeito a como e onde se trabalha, quais competências e habilidades passam a ser valorizadas, o papel das instituições de educação e formação educacionais, dentre outros elementos que, de diferentes formas, acabam forçando pessoas e instituições a, de alguma forma, se reinventarem na relação com a inovação e tecnologia em decorrência de pressões internas e externas, a fim de acompanhar a velocidade dessastransformações. Segundo o relatório “The Future of Jobs – Employment, Skills and Workforce Strategy for the Fourth Industrial Revolution” (2016), essas transformações podem levar a um corte de aproximadamente 7,1 milhões de postos de trabalho dentre os anos de 2015 e 2020 em função de uma série de reformulações que se dão e se darão desde o chão de fábrica. Ainda segundo o documento, a expectativa é que as ocupações serão diferentes e a mão de obra tradicional, braçal, passará a contar com mais engenheiros e programadores, a partir de sua relação cada vez mais direta com os sistemas tecnológicos. Ao abarcar os desenvolvimentos em robótica, inteligência artificial, nanotecnologia, impressão 3D e biotecnologia, tal conjuntura será marcada por “uma ruptura generalizada não apenas nos modelos de negócios, mas também nos mercados de trabalho nos próximos cinco anos, com enormes mudanças previstas nos conjuntos de habilidades necessárias para prosperar” (WORLD ECONOMIC FORUM, 2016). A partir de então, a principal reflexão que emerge endereça “como os negócios, o governo e os indivíduos reagirão a esses desenvolvimentos” (Ibidem). Ainda de acordo com o documento do Fórum Econômico Mundial, “embora muito tenha sido dito sobre a necessidade de reforma na educação básica, simplesmente não é possível enfrentar a atual revolução tecnológica esperando que a força de trabalho da próxima geração esteja mais bem preparada”. E é por esse motivo que este artigo, em especial, foca na dimensão educacional relacionada ao futuro das profissões. O artigo inicia com o desenvolvimento da ideia de indústria 4.0. Abordam-se, principalmente, as características, os componentes e princípios desta que também é conhecida por a quarta revolução industrial. Logo em seguida, apresenta-se o método utilizado na pesquisa, sobretudo pesquisa bibliográfica sobre o tema. Na terceira parte, discute-se o perfil dos profissionais nesse “novo” mercado em expansão e como algumas estratégias educacionais se mostram fundamentais na definição de maior ou menor sucesso de determinados indivíduos. Por fim, mapeia- se possíveis riscos e desafios correlacionados. Componentes, princípios e pilares da Indústria 4.0 De acordo com Jorge Eduardo Braz de Amorim no artigo “A Indústria 4.0 e a sustentabilidade do modelo de financiamento do regime geral da segurança social” (2017), indústria 4.0 ou quarta revolução industrial trata de um conceito que engloba as principais inovações tecnológicas da atualidade. “É baseada em processos industriais descentralizados, controlados de forma autônoma por sistemas cyber físicos e pela internet das coisas” que, como já mencionado, têm seus impactos e influências ultrapassando as barreiras industriais e atingindo todos os setores da economia (AMORIM, 2017). Dentre os princípios constituintes dessa ideia, que a diferenciam da indústria convencional – da fabricação em massa -, estão (a) interoperabilidade; (b) virtualização; (c) descentralização; (d) trabalho em equipe; (e) orientação dos serviços e (f) sistema modular que funcionam a partir de alguns pilares fundamentais: (i) análise de dados e big data; (ii) volume; (iii) variedade; (iv) veracidade e (v) valor das informações processadas. Essas mudanças em interação, por sua vez, implicaram transformações disruptivas nos modelos de negócios e terão um impacto profundo no mercado de trabalho nos próximos anos, bem como na preparação dos profissionais de diversas áreas para ocupar novas e velhas posições. Tais mudanças abarcam desde a criação de empregos antes impensáveis, até o deslocamento e/ou extinção de funções que só se tornaram possíveis pelo uso cada vez mais intensivo de tecnologias digitais, rápido desenvolvimento tecnológico nos últimos anos e uma configuração social, econômica e política que se coproduzem juntamente com esses processos. São igualmente centrais nesses processos a massiva difusão de aparelhos celulares; crescente acesso à Internet móvel e serviços em nuvem; avanços no poder computacional das máquinas e amplo uso do Big Data; desenvolvimento e expansão da Internet das coisas por meio de sensores, comunicação e processamento de dados remotos para incontáveis fins; difusão de produtos e serviços baseados na economia do compartilhamento; desenvolvimento e adoção de processos autônomos; e uso de robótica avançada em diferentes atividades do cotidiano, apenas para citar alguns. Paralelamente, observa-se algumas tendências de cunho demográfico e socioeconômico como: mudanças na natureza dos trabalhos, novos modelos de mercados e novos tipos de produtos e serviços, questões em torno da privacidade, gênero, ética, urbanização e maior acesso a bens e produtos tecnológicos. Schwab (2017, p. 39), por sua vez, identifica como profissões mais propensas à automação: telemarketing, avaliadores de seguros, secretário executivo, recepcionistas, agente imobiliário, dentre outras. Ou seja, atividades marcadas por alto grau de repetição de tarefas e baixa complexidade. Ainda segundo o pesquisador, as profissões com menor propensão de automação seriam: profissionais de saúde mental, coreógrafos, médicos, psicólogos, gestores de recursos humanos, para citar alguns exemplos. Essa dinâmica, contudo, seria acompanhada por uma crescente e significativa oportunidade de trabalho a ser criada, sobretudo relacionada à computação e matemática, para analistas e cientistas de dados, para especialistas em inteligência artificial e automação, marcando uma separação entre humanos, máquinas e algoritmos, e suas respectivas atuações na cadeia produtiva e social. Mas não apenas. É nesse momento também que se faz necessário mencionar a discussão sobre a emergência de empregos híbridos, combinando habilidades de funções anteriores em um novo papel (DELOITTE, 2017). Dessa forma, o que se tem é um cenário no qual se valoriza e se exige profissionais com qualificações técnicas para analisar dados, lidar com o mundo digital e que tenham flexibilidade, competências específicas da sua área de atuação e habilidades como: pensamento analítico e crítico, criatividade, iniciativa, trabalho em equipe, inteligência emocional, assim não desempenhando tarefas repetitivas que poderiam ser automatizadas e devem ter um aumento de demanda significativo tendo em vista o cenário atual (DELOITTE; MANUFACTURING INSTITUTE, 2011). Esse cenário, da forma que se apresenta, coloca em questão a importância e o desafio da formação dos futuros profissionais e a atualização daqueles que já estão no mercado. Isso implica olhar com cuidado para a formação de jovens e desempregados. Em muitos casos, o sistema educacional passa a ter um papel de destaque na construção de valores e condições distintivas para a competitividade (AIRES; KEMPNER-MOREIRA; FREIRE, 2017). Como desdobramentos desses processos, outros efeitos tendem a ser observados, como uma maior aproximação entre empresas e instituições de ensino (escolas e universidades), para ajudar os alunos a desenvolver as habilidades de que precisam. Em outras palavras, discute-se como “dada a complexidade do gerenciamento de mudanças necessário, as empresas precisarão perceber que a colaboração em questões de talentos, em vez de competição, não é mais uma estratégia boa, mas sim necessária” (WEF, 2016, p.32). O que isso significa para as estratégias e sistemas educacionais? Esta é apenas uma dentre várias perguntas que se tornam centrais quando se discute o futuro das profissões. Quais são as habilidades que se tornarão “obrigatórias” e quais seriam as possibilidades em termos de treinamento e educação para propiciar tais habilidades? Por isso a importância de se ponderar o papel da educação básica em prover as habilidades fundamentais necessárias para a aprendizagem dinâmica, compatível com o ritmo constante e acelerado de transições que os indivíduos enfrentarão, por exemplo, passando da economia informal para a formal ou da manufatura para o setor de serviços (INTERNATIONAL LABOUR ORGANIZATION, 2018). Trabalhadores mais instruídos e qualificadosterão, em média, mais capacidade de se adaptar às novas tecnologias e se beneficiarão dos salários reais mais altos que esses trarão, aumentando a produtividade. Trabalhadores menos instruídos geralmente arcam com mais custos de automação, potencialmente ampliando ainda mais as desigualdades existentes de renda e riqueza. Aumentar sua capacidade de adaptação e habilidades será fundamental para permitir que esses grupos compartilhem os ganhos das novas tecnologias e trabalhem mais efetivamente com eles (PWC, 2018, P.34). O reconhecimento da complexidade desses processos, por sua vez, coloca como fundamental o engajamento não somente entre empresas e instituições de ensino, mas também na relação com agentes e instituições governamentais, tendo em vista a importância do tema enquanto objeto de política pública de educação e treinamento compatíveis com um mundo cada vez mais automatizado e em uma economia cada vez mais digital. Isso exigirá programas eficazes de reciclagem para os trabalhadores mais velhos, bem como ajuda na procura de emprego. É claro que os trabalhadores também precisam assumir responsabilidade pessoal pela sua aprendizagem ao longo da vida e desenvolvimento de carreira, mas os governos e as empresas precisam apoiá-los na consecução desses objetivos (PWC, 2018, P.34). Segundo GIFFI et al (2018), a escassez de profissionais com habilidades e competências específicas demandadas pelo mercado de trabalho, dentre vários problemas, é um risco para a economia. Estudo da Deloitte e The Manufacturing Institute (2018) mostra que o mercado já tem experienciado um fenômeno de escassez de talentos que, por sua vez, impactam negativamente na sua atividade fim. É por essas e outras razões que justificamos a necessidade e oportunidade de se discutir sobre o papel das instituições e dos atores que atuam na formação dos novos e velhos profissionais. Por uma estimativa popular, 65% das crianças que entram nas escolas primárias hoje em dia acabarão por trabalhar em novos tipos de emprego e funções que ainda não existem. Tendências tecnológicas, como a Quarta Revolução Industrial, criarão muitas novas funções multifuncionais para as quais os funcionários precisarão de habilidades técnicas, sociais e analíticas. (…) As empresas devem trabalhar em estreita colaboração com governos, provedores de educação e outros para imaginar como seria um currículo verdadeiro do século XXI (WEFF, 2016). (Trans)formações na área jurídica A tecnologia está mudando, de diversas formas e intensidades, de maneira a impactar na forma como os produtos e serviços são oferecidos, precificados e avaliados. E esse fenômeno não seria diferente na área jurídica. Significativas transformações já podem ser observadas na forma como os serviços estão sendo prestados – como os escritórios de advocacia estão se organizando e quem faz parte desse processo. Dentre os fatores que constituem esse processo, chama a atenção a importância já atribuída às ferramentas e técnicas de inteligência artificial (IA) e seu impacto na prática jurídica, que se materializa em soluções como assistentes digitais e inteligentes, chatbots, ou até mesmo sistemas autônomos de inteligência e aprendizado de máquina que são usados para fazer previsões e tomar decisões, tal como ocorre nos campos da saúde, educação, e atividades de comunicação. Muitas são as promessas de que, no contexto de escritórios de advocacia, soluções baseadas em IA e aprendizado de máquina podem ajudar, ou mesmo desempenhar o trabalho completo de revisão/redação de documentos jurídicos, além da própria pesquisa em si, assim eliminando tarefas rotineiras. A expectativa é que atividades como revisão de contratos, cálculo de riscos e previsões sobre os resultados dos processos judiciais sejam executadas mais rapidamente e com mais eficiência quando executadas pelas máquinas. Como desdobramento, o profissional em questão poderia ter acesso a insights adicionais e se dedicar a tarefas mais complexas e estratégicas para o seu negócio, aumentando a produtividade, minimizando riscos e melhorando a prestação de serviços jurídicos, como argumentam muitos pesquisadores na área. Para dar conta desses processos e desafios já em curso, muitas instituições de ensino, no Brasil e no exterior, estão repensando e transformando suas realidades considerando a formação dos futuros profissionais, a partir da incorporação de competências digitais no rol de habilidades a serem desenvolvidas. A título de exemplificação, chamamos atenção para alguns exemplos, como a Escola de Direito de São Paulo da Fundação Getúlio Vargas, a iniciativa da Rede INNOVATE no contexto da Ordem dos Advogados do Brasil da Paraíba, além de mencionar outras iniciativas mapeadas no contexto europeu e norte-americano. Desde 2017, o Centro de Ensino e Pesquisa em Inovação (CEPI) da Faculdade de Direito de São Paulo da Fundação Getúlio Vargas vem realizando pesquisas sobre o futuro das profissões jurídicas, identificando novas tecnologias (por exemplo, algoritmos de aprendizado, sistemas especialistas, etc.) que mudaram as atividades e profissões jurídicas no país, e refletindo sobre como esse processo pode impactar a formação jurídica em relação a conhecimentos, competências e habilidades requeridos para lidar com essa nova realidade. As iniciativas da FGV baseiam-se na ideia de que é fundamental uma reorientação de objetivos e métodos de ensino jurídico, a fim de proporcionar uma experiência educacional relevante e significativa para todos os envolvidos. Os experimentos foram divididos em duas frentes[3] com objetivos específicos. Os Laboratórios de Tecnologia foram cursos opcionais que privilegiaram a produção de um projeto de tecnologia pelos alunos que impactasse na forma como serviços jurídicos são prestados, como automação de documentos jurídicos (e.g. briefings e contratos jurídicos automatizados, ou desenvolvimento de chatbots que ajudassem o público em geral a conhecer a viabilidade de alguns instrumentos legais). A outra iniciativa diz respeito a imersões em Direito e Tecnologia dentro das quais, durante uma semana, os alunos se dedicam integralmente a entender um desafio legal advindo dessas mudanças tecnológicas e são instigados a propor uma solução baseada em desafios reais. Na Paraíba, a Rede INNOVATE, vinculada à Ordem dos Advogados do Estado da Paraíba (OAB-PB), surgiu a partir da mobilização de um grupo de jovens advogados que criou uma startup social cuja proposta era identificar como o mundo digital trouxe oportunidades e desafios para o ingresso de jovens profissionais no mercado. A startup também se propunha a discutir, por meio de webinars e cursos on-line, questões como a própria “advocacia 4.0”, blockchain, marketing jurídico digital, dentre outras. Em âmbito internacional, instituições como a Universidade do Minho (Portugal), possui cursos de pós-graduação, a exemplo do mestrado em Direito e Informática, cujo objetivo é dar aos alunos uma perspectiva sobre como o direito e a informática influenciam um ao outro. Um dos principais diferenciais do programa é o incentivo à cossupervisão da dissertação final do curso por membros do corpo docente de ambas as unidades acadêmicas, que estão diretamente envolvidos no programa, a saber, Direito e Ciências da Computação. Na Universidade de Michigan, EUA, por sua vez, o Centro de Inovação em Serviços Jurídicos ofereceu aulas interdisciplinares, como a LegalRnD, que trata da prestação de serviços jurídicos na relação com inteligência artificial, análise quantitativa para advogados, lei de privacidade e segurança da informação. Eles também têm cursos que abordam inteligência artificial e conexões com a lei, ou ética e regulamentação, destacando a necessidade de entender como leis e códigos interagem. Como último exemplo, cabe citar a iniciativa interdisciplinar da Universidade de Georgetown, nos Estados Unidos, chamada “Legislação de Privacidade na Prática: Direito e Tecnologia” que consiste em um curso ministrado em conjunto pelo corpo docente do MassachusettsInstitute of Technology (MIT) e da Georgetown University Law School. Ao longo da disciplina os alunos são divididos em grupos mistos e são incumbidos da tarefa de explorar questões de política de privacidade em profundidade sobre uma tecnologia emergente e propor soluções políticas que poderiam ser adotadas. Ao final do curso, eles apresentam suas propostas em uma sessão pública aberta a um júri convidado composto por executivos de políticas públicas de tecnologia, funcionários da administração, legisladores e professores de outras áreas acadêmicas. Em comum, essas iniciativas têm demonstrado que, tendo em vista as novas configurações do mercado de trabalho na sua coprodução com o desenvolvimento tecnológico, sobretudo digital, além do conhecimento legal, os advogados devem incorporar e demonstrar ter as habilidades digitais básicas que lhes permitirão lidar com os desafios que os esperam. As experiências e iniciativas concretas mencionadas acima corroboram as discussões levantadas em torno da complementação entre competências técnicas que devem ser adquiridas por meio de educação formal, de cunho acadêmico e prático, independentemente da área (hard skills ou qualificação formal) e competências comportamentais, mais associadas a traços de personalidade, por exemplo, que facilitam a interação com outros (soft skills) para atender aos novos papéis e funções que estão se (trans)formando junto com essa nova conjuntura sociotécnica. Considerações finais Além de impactar a quantidade de empregos, as novas tecnologias, sobretudo aquelas relacionadas à inteligência artificial e automação de processo, influenciam a relação entre mercado de trabalho e o tipo de profissionais almejados para essas novas e velhas funções. Essa relação, por sua vez, implica em novas demandas direcionadas para as instituições que formam esses profissionais para adentrarem o mercado de trabalho e ali permanecerem de forma bem-sucedida. Contudo, é necessário reconhecer que este é um processo de longo prazo, especialmente o de reflexão, adaptação e/ou inovação nos sistemas educacionais. De acordo com o Fórum Econômico Mundial, “a maioria dos sistemas educacionais existentes em todos os níveis oferece treinamento altamente em silos e continua uma série de práticas do século XX que estão impedindo o progresso dos talentos atuais e das questões do mercado de trabalho” (2016). Essa constatação instiga discussões como “Qual é o papel das escolas no trabalho do futuro? Parece que nosso sistema educacional foi modelado para treinar pessoas para uma forma de trabalho, e não está claro se elas estão focadas no trabalho do futuro” (HAGEL, 2017). Além disso, reitera-se a necessidade de as empresas trabalharem em estreita colaboração com governos, provedores de educação e outros “para imaginar como seria um currículo verdadeiro do século XXI” (Ibid.). Em média, até 2020, mais de um terço dos conjuntos de habilidades essenciais desejadas para a maioria das ocupações será composto por habilidades que ainda não são consideradas cruciais para o trabalho atual, de acordo com nossos entrevistados. De modo geral, as habilidades sociais – como persuasão, inteligência emocional e ensino de outras pessoas – terão maior demanda nas indústrias do que habilidades técnicas restritas, como programação ou operação e controle de equipamentos. Em essência, as habilidades técnicas precisarão ser complementadas com fortes habilidades sociais e de colaboração. (WEC, 2016, p.20). Tradução nossa. Tendo em vista a literatura levantada e os casos apresentados, nenhuma tradição ou modelo de formação profissional pode ou deve isolar suas atividades, sejam elas jurídicas ou não, dos enormes impactos e das consequências do recente desenvolvimento tecnológico. Nesse contexto, as instituições responsáveis pela educação, preparação e acreditação dos operadores legais devem incorporar a dimensão digital na visão de mundo que transmitem aos seus alunos e identificar quais iniciativas podem constituir um possível roteiro. Este trabalho sugere que pelo menos dois caminhos devem ser perseguidos na direção de tal roteiro. O primeiro é incorporar as competências digitais nas habilidades que as instituições transmitem e exigem de seus estudantes de direito / candidatos. A segunda é uma reflexão mais profunda sobre o futuro da profissão em si. E não se pode deixar de considerar também que nem todo mundo e nem todos os setores terão o mesmo acesso a instituições que priorizam esse tipo de aproximação entre Direito e Tecnologia, e que algumas tecnologias podem reforçar problemas de gênero, de discriminação e de assédio, mesmos em âmbito de trabalho – o que não deve ser ignorado. Referências bibliográficas AIRES, R. W. A.; KEMPNER-MOREIRA, F. K.; FREIRE, P. S. Indústria 4.0: competências requeridas aos profissionais da quarta revolução industrial. In: Congresso Internacional de Conhecimento e Inovação (CIKI), 7., 2017, Foz do Iguaçu. Anais… Foz do Iguaçu: EGC, UFSC, 2017. AMORIM, E. A indústria 4.0 e a sustentabilidade do modelo de financiamento do Regime Geral da Segurança Social. Cadernos de Dereito Actual, Portugal, n.5, 2017, p. 243-254. DELOITTE, Navigating the future of work: can we point business, workers, and social institutions in the same direction?, Deloitte University Press, [Westlake], viewed 28 Feb 2019, https://dupress.deloitte.com/dup-us-en/deloitte- https://dupress.deloitte.com/dup-us-en/deloitte-review/issue-21/navigating-new-forms-of-work.html review/issue-21/navigating-new-forms-of-work.html . DELOITTE; THE MANUFACTURING INSTITUTE. “The Skills Gap in U.S. Manufacturing”, 2011. Disponivel em: https://www2.deloitte.com/content/dam/insights/us/articles/4736_2018- Deloitte-skills-gap-FoW-manufacturing/DI_2018-Deloitte-MFI-skills-gap-FoW- study.pdf Acesso em: 25 fev. 2019. FERREIRA, C.; MARTINS, E.. A importância das competências na era 4.0: The importance of competences in era 4.0. Atas do IV Encontro Científico da UI&D. SLA Santarém – Instituto Superior de Gestão e Administração de Santarém, Portugal, 2018. GIFFI, C. et al. The jobs are here, but where are the people? Deloitte Insight, 2018. Disponível em: https://www2.deloitte.com/insights/us/en/industry/manufacturing/manufacturing- skills-gap-study.html Acesso em: 25 fev. 2019. HAGEL, J. Radically open: Tom Friedman on jobs, learning, and the future of workDeloitte Review, issue 21. 31/07/2017. Disponível em: https://www2.deloitte.com/insights/us/en/deloitte-review/issue-21/tom- friedman-interview-jobs-learning-future-of-work.html Acesso em: 25 fev. 2019. INTERNATIONAL LABOUR ORGANIZATION. Skills policies and systems for a future workforce. Issue Brieg #8; 2018. Disponível em: https://www.ilo.org/wcmsp5/groups/public/—dgreports/— cabinet/documents/publication/wcms_618170.pdf Acesso em: 25 fev. 2019. HERMANN, M.; PENTEK, T.; OTTO, B. Design Principles for Industrie 4.0 Scenarios: A Literature Review. Working paper, 2015. Disponível em: <http://rgdoi.net/10.13140/RG.2.2.29269.22248>. Acesso em: 25 fev. 2019 Kagermann, H., W. et al. Recommendations for implementing the strategic initiative Industrie 4.0: Final report of the Industrie 4.0 Working Group, 2013. Disponível em: http://www.acatech.de/fileadmin/user_upload/Baumstruktur_nach_Website/Acatech/root/de/Material_fuer_Sonderse iten/Industrie_4.0/Final_report__Industrie_4.0_accessible.pdf. Acesso em: 25 fev. 2019. PWC. Will robots really steal our jobs?: An international analysis of the potential long term impact of automation 2018. Disponível em: https://www.pwc.com/hu/hu/kiadvanyok/assets/pdf/impact_of_automation_on_jobs.pdf Acesso em: 25 fev. 2019. RAINIE, L.; e ANDERSON, J.. The Future of Jobs and Jobs Training. Pew Research Center, 2017. Disponível em: http://www.pewinternet.org/2017/05/03/the- future-of-jobs-and-jobs-training/ Acesso em: 25 fev. 2019. SCHWAB. K.. The Fourth Industrial Revolution. London: Editor Penguin Random House, 2017. FORUM ECONOMICO MUNDIAL. The Future of Jobs Employment, Skills and https://www2.deloitte.com/content/dam/insights/us/articles/4736_2018-Deloitte-skills-gap-FoW-manufacturing/DI_2018-Deloitte-MFI-skills-gap-FoW-study.pdfhttps://www2.deloitte.com/insights/us/en/industry/manufacturing/manufacturing-skills-gap-study.html https://www2.deloitte.com/insights/us/en/deloitte-review/issue-21/tom-friedman-interview-jobs-learning-future-of-work.html https://www.ilo.org/wcmsp5/groups/public/---dgreports/---cabinet/documents/publication/wcms_618170.pdf http://rgdoi.net/10.13140/RG.2.2.29269.22248 http://www.acatech.de/fileadmin/user_upload/Baumstruktur_nach_Website/Acatech/root/de/Material_fuer_Sonderse%20iten/Industrie_4.0/Final_report__Industrie_4.0_accessible.pdf https://www.pwc.com/hu/hu/kiadvanyok/assets/pdf/impact_of_automation_on_jobs.pdf http://www.pewresearch.org/staff/lee-rainie http://www.pewresearch.org/staff/janna-anderson http://www.pewinternet.org/2017/05/03/the-future-of-jobs-and-jobs-training Workforce Strategy for the Fourth Industrial Revolution, 2016. Disponível em: http://www3.weforum.org/docs/WEF_Future_of_Jobs.pdf. Acesso em: 25 fev. 2019. 1. Pesquisadora e gestora de projetos no Centro de Ensino e Pesquisa em Inovação (CEPI) da FGV Direito SP. Líder de pesquisas em futuro do trabalho, tecnologias emergentes e inovação responsável. Atualmente, é pós-doutoranda no Centro Brasileiro de Análise e Planejamento (CEBRAP). É doutora em Política Científica e Tecnológica pela Universidade Estadual de Campinas (Unicamp), com doutorado sanduíche na Science Policy Research Unit (SPRU), Universidade de Sussex (Reino Unido). Mestre em Divulgação Científica e Cultural, também pela Unicamp. Bacharel em Comunicação Social pela Universidade Federal de Viçosa. ↵ 2. “Foi membro da Comissão Especial de Estudos Permanentes sobre Compliance do Conselho Federal da Ordem dos Advogados do Brasil, colaborador do Observatório Digital Watch da Geneva Internet Platform e Pesquisador Visitante no Center for Cyber, Law and Policy da Universidade de Haifa, em Israel, na Faculdade de Direito da Universidade de Georgetown, em Washington. D.C. e na O.P. Jindal Global University, Nova Deli, Índia. Bacharel em Ciência da Computação pela Universidade Federal de Campina Grande. Integra o grupo de especialistas do Forum de Governança de Internet da Organização das Nações Unidas (ONU). É Fellow da ICANN (Internet Corporation for Assigned Names and Numbers), do Latin American Internet Governance Forum (LACIGF) e da South School on Internet Governance (SSIG). Professor Convidado do Programa LAST-JD Ph.D. pela Universidade de Turim, da International Summer School on CyberLaw da Escola Superior de Economia, em Moscow e de diversas outras universidades e instituições de ensino. Membro da Comunidade Octopus Cybercrime do Conselho da Europa, dos Capítulos Brasil e Portugal da Internet Society e da International Law Association, onde é membro do Comitê Internacional de Estudos sobre a Privacidade. Foi também Professor da Escola Superior da Magistratura, da OAB e da Academia de Ensino da Polícia Civil do Estado da Paraíba. Pesquisa e desenvolve trabalho em temas jurídicos relacionados à tecnologia há mais de 20 anos, durante os quais foi consultor e assessor junto a entidades públicas e agências http://www3.weforum.org/docs/WEF_Future_of_Jobs.pdf governamentais, instituições policiais e de segurança pública, Tribunais de Justiça, CNJ e Congresso Nacional, bem como junto ao setor privado, o Programa das Nações Unidas para o Desenvolvimento (PNUD), o Tribunal Internacional da ECOWAS e o Centro Europeu do Consumidor.” ↵ 3. Cada uma das frentes de ensino já teve duas edições, cada uma com um tema diferente e diferentes parceiros. ↵ 3. Inteligência artificial e big data: o processamento de dados como instrumento de uma inclusão sócio digital Camila Maria de Moura Vilela[1] Resumo: O presente artigo pretende analisar como características atribuídas à big data colocam diversos desafios dentro da Inteligência Artificial. Para tanto, observa-se a discriminação no cenário contemporâneo no setor da Tecnologia da Informação de Comunicação (TIC). Em síntese, a Inteligência Artificial (IA) é a chave da sociedade da informação e do conhecimento, o que supõe diferentes técnicas para resolver problemas e processar informações. As discussões apresentadas constituíram-se por meio de uma abordagem descritiva e de caráter qualitativo, tendo sido imprescindíveis o recurso à pesquisa bibliográfica e documental. Introdução Ultimamente muito temos ouvidos sobre Inteligência Artificial (IA) e também sobre Big Data. Mas afinal a IA e Big Data têm alguma relação? Quando falamos em Big Data, estamos falando de uma grande quantidade de dados. Dados cujo crescimento é exponencial e a velocidade com que são processados é cada vez maior. O combustível de IA são os dados. A IA opera por meio dos dados que possui e aprende com eles, de modo a usar esses dados como padrões e aplicar estatísticas, sendo capaz de fazer previsões. A manifestação da nossa inteligência nos remete a pensarmos em um futuro repleto de robôs cada vez mais dotados de capacidades múltiplas. No entanto, a IA só trará benefícios se movida pela diversidade. Ademais, as desigualdades socioeconômicas e culturais determinaram a maneira pela qual diferentes indivíduos e grupos se apropriaram de ferramentas e redes digitais e acessaram oportunidades. Para entender o impacto que a IA terá sobre a sociedade, economia, política e cultura, e também para ajudar a sua disseminação a se dar de maneira mais justa, ética e humana, é necessário reconhecer a existência de múltiplas lacunas digitais que vão além do simples acesso à tecnologia. Temos que endereçar a necessidade de fortes princípios éticos, a evolução das leis, o treinamento para novas habilidades e até mesmo as reformas do mercado de trabalho. Isso tudo deve se juntar se quisermos aproveitar ao máximo a Inteligência Artificial para nos beneficiarmos e construirmos uma sociedade civil e digital mais inclusiva. Podemos assim, criar séries de treinamento mais inclusivas, criar um mundo onde a tecnologia trabalhe em favor de todos, não apenas em favor de alguns, ou favorecendo alguns, além de pensarmos no bem-estar do ser humano, na conexão de homens e máquinas, na integração do mundo físico com o virtual e dos serviços com a ética. O maior desafio é como conectar, integrar e extrair valor desse volume de dados imenso. Como construir um ambiente em que a inteligência artificial seja motivo de inclusão e não de exclusão? A partir disso, poderemos devemos acreditar que a IA ajudará a resolver grandes problemas sociais e olhar para este futuro com uma visão mais crítica. Haverá desafios e oportunidades, disso não podemos nos eximir. Para tanto, este trabalho tem como principal objetivo trazer uma análise acerca da aplicação da IA e do uso de dados em um contexto de promoção da igualdade e inclusão sócio digital analisando os aspectos jurídicos, tecnológicos e sociais e, por fim, analisando as violações digitais existentes, bem como os problemas e desafios para novas tecnologias de informação e comunicação. 1. Cibernética, inteligência artificial e robótica Este artigo interliga a IA com a análise de dados, colocando em perspectiva as principais oportunidades e cuidados necessários para que essa tecnologia traga uma transformação positiva para a sociedade. Quando falamos de IA, remetemos a sistemas classificadores, baseados em regras, aprendizado de máquina (machine learning), processamento de linguagem natural, lógica bayesiana, armazenamento em cluster e outros. Com certeza os sistemas de IA desenvolvidos são importantes, entretanto, devemos considerar um fator crucial nos projetos de IA: os dados. Assim, apesar do conceito de IA ter seus primeiros marcos já em 1943, mais recentemente é que tem sido bastante discutido. Atualmente, passa a fazer parte do nosso dia a dia, impactando o nosso cotidiano e requer, geralmente, uma grande quantidade de dados. Vários desenvolvimentos estão a marcar esta onda de IA, como capacidade de processamentos, algoritmos e modelos de IA cada vez mais sofisticados, que geram volumes inimagináveis de dados, o combustívelda IA. A IA é o ramo da ciência da computação que se propõe e elaborar dispositivos que simulem a capacidade humana de raciocinar, perceber, tomar decisões e resolver problemas. Por sua vez, a cibernética está ligada à IA, na medida em que é a sua concretização prática. Assim, a Inteligência Artificial relacionada com as ciências cognitivas, compreende e reproduz os processos mentais, ao mesmo tempo que, a cibernética e a robótica compreendem e reproduzem os processos biológicos e motores dos seres humanos (PASK, 1968)[2]. Considerando que desde o Frankenstein de Mary Shelley ao mito clássico do Pigmaleão, passando pela história do Golem de Praga pelo robô de Karel Čapek, que cunhou o termo, as pessoas têm fantasiado acerca da possibilidade de construir máquinas inteligentes, frequentemente androides com características humanas. Do mesmo modo que o visionário Isaac Asimov, cientista de origem russa estabeleceu premissas básicas referentes as “Leis da Robótica”, qual objetivo era regular a ação de robôs em um mundo compartilhado entre homens e máquinas inteligentes. Agora a humanidade encontra-se em uma era em que robôs, bots, androides e outras manifestações de IA, cada vez mais sofisticadas, parecem estar preparados para desencadear uma nova revolução industrial, com a interconexão de todos estes dispositivos inteligentes e a descentralização do controle dos processos, bem como a Revolução 4.0 e a Internet das Coisas. Se olharmos para o Parlamento Europeu, a Resolução de 16 de fevereiro de 2017 (doravante Resolução), contém recomendações à Comissão sobre disposições de Direito Civil sobre Robótica. Tal Resolução debruça-se sobre o desenvolvimento, a utilização e regras em matéria da IA e da Robótica, convergindo com diversas disciplinas jurídicas, como a Responsabilidade Civil derivada das ações ou omissões dos robôs e a eventual Personalidade Jurídica atribuída a estes; sobre questões que envolvem o Direito da Família (mais concretamente, proteção das crianças e dos idosos), o Direito da Propriedade Intelectual, o Direito à Proteção de Dados e Privacidade, o Direito do Trabalho e da Segurança Social ou o Direito Fiscal (FIDALGO, 2018). A IA e a robótica têm ainda gerado discussões em outros ramos do Direito, principalmente assuntos não abordados quanto aos problemas essenciais que estão ligados às revoluções tecnológicas, o seu impacto nas várias classes sociais e a concentração de capitais gerada por estas mudanças. O objeto de estudo da IA continua cercado de certas arestas, no sentido em que o homem ainda não possui uma definição suficientemente satisfatória de inteligência e para se compreenderem os processos da IA e da representação do conhecimento terão de se dominar os conceitos de inteligência humana e conhecimento. Neste ponto, podemos vislumbrar a hibridez entre a máquina e a humanidade. Devemos estar atentos aos dados para aproveitarmos ao máximo a inteligência artificial, o aprendizado de máquina e a computação cognitiva. Ao mesmo modo de como podemos utilizar os dados, gerar padrões e tendências e como tomar sólidas decisões baseadas nessas decisões. Nesta perspectiva, ao conectarmos os conceitos de big data e IA percebemos o quão necessária é a IA para interpretar os dados que podem ter sido produzidos por algo conectado, como um aplicativo, um automóvel, entre outros. Salientamos o quanto o uso de algoritmos pela IA em big data facilitou a vida humana em diversos aspectos. Entretanto, interferimos nossos questionamentos também no que concerne a criatividade, o senso crítico e a análise profunda dos dados para resolução de problemas. Por isso, nos atentamos ao uso de algoritmos para levar inclusão. Por algoritmos autônomos, nos referimos a métodos automáticos de processamento de dados, em que determinados dados são inseridos, direta ou indiretamente pelo utilizador, em um algoritmo que os processa para providenciar ao um resultado (FERREIRA, 2018). 2. Big data, aprendizado de máquina, privacidade e proteção de dados Big data é o nome genérico que se dá ao imenso volume de dados gerados disponíveis na atualidade. Parte desses dados são estruturados, como os recibos e tráfego web, e outra parte não, como Facebook, Twitter, entre outros. Quando falamos em big data, não estamos atentos apenas ao grande volume de dados. Cada vez mais há o interesse na proteção dessas informações. Porém, essa proteção deve ir além da mera proteção legislativa sobre o tema, devemos pensar no que queremos fazer com esses dados. No Fórum Econômico Mundial do ano de 2012, em Davos, Suíça, big data já era um tópico de marquise. Um relatório emitido pelo Fórum, intitulado “Big Data, Big Impact: New Possibilities for International Development”, declarou os dados como uma classe nova de recurso econômico, comparando-os a uma moeda corrente ou ouro[3]. Com informações atuais do Fórum Econômico Mundial, tem-se o exemplo do Oriente Médio e da África que terão uma expansão de tráfego de computação em nuvem mais alta do que qualquer outro mercado no mundo até 2021, com uma taxa de crescimento anual composta de 35%. Segundo Khalid Rumaihi, Presidente do Conselho de Desenvolvimento Econômico do Bahrein, “Os dados – coletados e mantidos eticamente, protegidos e anonimizados – representam a agulha essencial da bússola que pode reorientar as aspirações digitais da região e liberar o potencial econômico harmonizado”[4]. Uma das principais questões envolvidas quanto ao tema é como fica a privacidade de dados nas análises de big data. A legislação nesse caso pode ajudar. Após o caso da Cambridge Analytica, a União Europeia resolveu revisar suas leis de proteção de dados, que resultou na criação do GDPR (General Data Protection Regulation, ou Regulamento Geral de Proteção de Dados). O GDPR passou a valer em maio de 2018 e trata-se do maior conjunto de regras de proteção à privacidade na Internet até o momento. Isso significa que o GDPR tem repercussões não só no continente europeu, como também em outros países, incluindo o Brasil. Por sua vez, no Brasil, foi aprovada a Lei Geral de Proteção de Dados (LGPD), que entrou em vigor em agosto de 2020. Considerando os principais aspectos e implicações práticas destas duas legislações para o cenário digital, sem big data, data analytics e aprendizado de máquina, empresas como Amazon, Netflix, Facebook, Google ou Spotify não seriam o que conhecemos. Legisladores, empresários e profissionais precisam trabalhar para garantir um nível adequado de privacidade sem prejudicar os avanços que estão para surgir. Um exemplo de implementação de machine learning pode ser observado por meio do Facebook. Os algoritmos de aprendizado de máquina do Facebook reúnem informações comportamentais para cada usuário na plataforma social. Com base no comportamento passado, o algoritmo prevê interesses e recomenda artigos e notificações no feed de notícias. Da mesma forma, quando a Instagram recomenda produtos na aba “Explorar”, ou quando a Netflix recomenda um filme baseado em experiências passadas, o aprendizado de máquina está em ação. A diferença que podemos ressaltar entre IA e aprendizado de máquina, é pensar sobre a IA como uma disciplina, por exemplo a Física. A IA tem a ver com teoria e métodos – neste caso com teoria e métodos para criar máquinas que pensam e agem como seres humanos. O aprendizado de máquina, por outro lado, é um conjunto de ferramentas mais ou menos como as leis da mecânica de Newton. Assim como dá para usar as leis de Newton para descobrir quanto tempo leva para uma bola cair no chão se você soltá- la de um penhasco, você pode usar o aprendizado de máquina para resolver alguns problemas de IA. A diferença básica entre aprendizado de máquina e outras técnicas em IA, por exemplo, em sistemas especializados, é que, no aprendizado de máquina, as máquinas aprendem. Elas não começam inteligentes, mas ficam inteligentes. Com efeito, a IA leva-nos para outro nível de utilização, mineração e manipulação de dados. Não se trata apenas de conceituar algoritmose automação, mas sim a melhor forma prática de usar algoritmos para analisar dados. Ademais, entramos num paradoxo, de forma clara a tecnologia evolui com velocidade extrema, por outro lado, as normas jurídicas que visam regular essa mesma tecnologia evoluem com uma lentidão extrema. Com isso, para reconstruir a confiança nas plataformas de tecnologia, as empresas e os representantes do governo devem priorizar a segurança e definir diretrizes claras sobre como os dados são compartilhados. 3. A dignidade digital e os algoritmos inteligentes O desenvolvimento de IA pode gerar inúmeros riscos e implicações para os direitos humanos e fundamentais sob o ponto de vista jurídico, social e ético, tanto da perspectiva individual quanto coletiva. Bem como pode gerar oportunidades em muitos campos, entretanto, podemos observar alguns riscos ligados à inclusão social, que incluem populações indígenas, mulheres, pessoas LGBTQ+, entre outros. Nos questionamos sobre alguns quesitos, considerando que a abordagem binária de código e dados legíveis para computadores não é compatível com o vasto espectro de gênero e sexualidade. Como por exemplo, um algoritmo de orientação sexual pode conhecer melhor a sexualidade de alguém do que a própria pessoa? Existe um preconceito das máquinas? É possível falar sobre um direito de acesso com a IA? Como fazer com que a IA não afunde com a desigualdade social das pessoas? As respostas para essas perguntas e tantas outras exigem um esforço transcendente para repensar e inovar sobre os desafios de uma revolução que estamos vivenciando. Inicialmente, devemos tecer algumas ponderações, visto que as empresas do setor de Tecnologia da Informação de Comunicação (TIC) evoluem ao mesmo tempo em que diversas áreas se desenvolvem dentro da economia global. A aprendizagem autônoma ou aprendizado de máquina é um subconjunto da IA que proporciona aos sistemas a capacidade de aprender e de melhorar as necessidades. Ademais, a base da programação e da computação é a lógica matemática. No entanto, devemos estar atentos à relevância que estas tecnologias trazem para os direitos humanos. Para que o desenvolvimento de IA seja compatível com os direitos humanos é necessário termos uma regulação que incorpore uma série de princípios que se vinculem com três categoria: dignidade algorítmica, identidade algorítmica e vulnerabilidade algorítmica. Como mencionamos, um dos riscos mais importantes que está presente na aprendizagem automática é o de ampliar a discriminação e os preconceitos existentes contra certos grupos, as comunidades frequentemente excluídas e vulneráveis, tendo como embasamento a dignidade e o respeito. É necessário que certifiquemo-nos de que a IA seja orientada pela ética, e não apenas pela tecnologia. Em maio de 2018, diversas organizações, como a Amnesty Internacional e a Access Now, apresentaram a Declaração de Toronto sobre a proteção dos direito à igualdade e não discriminação nos sistemas de aprendizagem automática. Esta Declaração busca ampliar as normas internacionais de direitos humanos existentes no desenvolvimento e uso de sistemas da IA, visando construir discussões, princípios e documentos existentes explorando os danos decorrentes desta tecnologia[5]. Embora esta Declaração esteja focada em tecnologias de aprendizado de máquina, muitas das normas e princípios incluídos são igualmente aplicáveis à IA, bem como aos sistemas de dados relacionados[6]. Os direitos à igualdade e à não discriminação são apenas dois dos direitos humanos que podem ser adversamente afetados pelo uso de sistemas de aprendizado de máquina: privacidade, proteção de dados, liberdade de expressão, participação na vida cultural, igualdade perante a lei e acesso à justiça são apenas alguns dos outros direitos que podem ser prejudicados com o uso indevido desta tecnologia. Nesse contexto, em uma entrevista à rede britânica BBC, Iyad Rahwan, professor do MIT envolvido no projeto “Norman”, argumentou que experiências que envolvam algoritmos de IA são válidas por provarem que “dados são mais importantes que algoritmos”. Ou seja, os dados usados para treinar a inteligência artificial têm influência maior no comportamento do sistema do que o algoritmo usado para articular essa inteligência artificial. “Os dados são refletidos na forma como a IA percebe o mundo e como ela se comporta”, afirmou (RAHWAN, 2018). Ora, um ponto crucial e indispensável é assegurar os princípios de igualdade e não discriminação quando estamos frente à IA e aos direitos fundamentais. Ou seja, devemos ter princípios jurídicos para uma IA que respeite e promova a vigência de um Estado Constitucional, a partir dos paradigmas que surgem dos pactos internacionais, e que em essência está baseado na dignidade humana. Desta forma, dentro deste enfoque jurídico e protetivo, pressupõe-se haver uma inovação inclusiva para o desenvolvimento sustentável, para que o desenvolvimento da IA seja compatível com os direitos humanos e fundamentais. O desafio geral diz respeito a regulações que incorporem uma série de princípios ligados ao processamento de informação e aos dados que levam os resultados dos sistemas de IA[7]. Proteger os direitos humanos e fundamentais perante a IA apresenta-se como um desafio ao uso do big data e da IA, considerando que um dos principais desafios consiste em entendermos sobre o que estamos falando, de modo a podermos pensar o mais acertadamente sobre as características atribuídas a estes. 4. A eliminação da discriminação tecnológica e a busca pela inclusão digital Existe uma enorme oportunidade de impacto social a partir do surgimento de algoritmos de IA e aprendizado de máquina. Além disso, há uma série de preocupações relacionadas à maneira como os algoritmos podem ser responsabilizados em áreas que afetam a esfera pública e privada (SHAH, 2018). Conforme afirma Hetan Shah, “Os algoritmos na maior parte estão refletindo o preconceito em nosso próprio mundo”. Podemos interpretar dessa afirmação que existem muitos exemplos de problemas referentes à parcialidade em algoritmos que aumentaram a preocupação social. Entre estes, o aplicativo de fotos do Google, que identifica erroneamente um casal negro como gorila[8], preocupações com preconceito racial nos resultados de algoritmos nos EUA usados para prever a probabilidade de reincidência do réu[9] e estudos de mineração de texto mostrando associações de palavras com estereótipos[10]. Devido a questões inerentes à programação, os algoritmos funcionam com uma black box, ou seja, nem o próprio programador, enquanto “monitorizador” do algoritmo, conseguirá perceber o porquê de aquele ter chegado a um determinado resultado (FERREIRA, 2018). Neste sentido, Afonso José Ferreira ainda tece o seguinte: “Uma destas falhas (…) relaciona-se com a processamento de dados por algoritmos autônomos. Por algoritmos autônomos, refiro-me a métodos automáticos de processamento de dados, em que determinados dados são inseridos, direta ou indiretamente, pelo utilizador, num algoritmo que os processa para providenciar ao utilizador um resultado. O processamento de dados através de algoritmos autônomos funciona como uma black box – isto é, não é possível perceber o seu funcionamento interior, sendo apenas possível conhecer os inputs e outputs da operação de processamento.” Não obstante, convém destacar que é necessário garantir o funcionamento adequado dos algoritmos. Visto que, é inegável que deve haver a garantia da independência e da imparcialidade dos algoritmos cujos resultados possam produzir efeitos nas esferas jurídicas (FERREIRA, 2018). Também em síntese, destacamos o uso do big data e da IA em decisões administrativas, policiais e judiciais. Dessa forma, os algoritmos estão se tornando cada vez mais parte de nossa infraestrutura pública. Frente a estas situações é necessário redescobrir novas formas de proteção da igualdade e ao direito a não discriminação, pois as dificuldades para atuar, vigiar e controlar são complexas. No que respeita a algorithmicaccountability, há algumas formas de iniciativa que podem ajudar essa responsabilidade em torno do algoritmo. Primeiro, o modelo deve ser testado para verificar o viés de várias maneiras, usando vários conjuntos de dados de treinamento, sempre que possível. Como a Algorithmic Justice League que oferecem ajuda na verificação de preconceitos[11]. Em segundo lugar, há um papel ligado à transparência, principalmente no desenvolvimento de políticas públicas de IA. Aparentemente seria uma forma útil publicar o modelo, os dados e os metadados explicando sua proveniência. Entretanto, quanto a transparência ressaltamos dois pontos, um é o debate de até que ponto a transparência pode dar sentido aos modelos de aprendizado de máquina, e o outro é quanto que a própria transparência não é a chave para a responsabilização (O’NEILL, 2002). O viés algorítmico, como o preconceito humano, pode resultar em experiências excludentes e práticas discriminatórias. Segundo Joy Buolamwini “Quem quer que codifique o sistema, incorpora suas visões. Uma chamada para código inclusivo”, isto significa que, como muitos programadores utilizam bibliotecas de códigos populares, o código reutilizado às vezes reflete a falta de inclusão no espaço tecnológico de maneiras não óbvias e os pedidos de inclusão de tecnologia geralmente perdem o viés que está embutido no código escrito gerando experiências frustrantes[12]. A leitura biométrica do rosto, igualmente denominada reconhecimento facial, torna-se cada vez mais comum e isso ainda é mais frequente justamente pela reutilização de códigos. Por mais que códigos reutilizáveis sejam mais eficientes, é preciso criar código que funcione para pessoas de todos os tipos. Portanto, em vez de concentrar-se apenas em examinar a black box, um terceiro aspecto da responsabilidade seria monitorar os resultados dos impactos diferenciais, com um enfoque particular nas comunidades mais pobres ou minoritárias. A Lei de Proteção de Dados do Reino Unido, de 1998, permite o direito de contestar decisões significativas automatizadas baseadas apenas no processamento automatizado, e isso continua a existir no Regulamento Geral de Proteção de Dados da União Europeia. Seja na Diretiva ou no Regulamento Geral de Proteção de dados, por exemplo, o profiling é visto como uma forma anormal de processamento de dados, e como uma exceção a ser evitada (FERREIRA, 2018) A ideia de construir valores libertadores em sistemas tecnológicos não é algo novo. Por exemplo, o movimento Appropriate Technology defende abordagens sustentáveis para o desenvolvimento tecnológico nos países do Sul Global. Como esses países são grandes consumidores de alta tecnologia, faz-se necessário ter uma inclusão e acrescentar pessoas em grupos e núcleos que antes não faziam parte através da automatização de atividades. Os desafios e limitações para novas tecnologias de informação e comunicação nos leva à pergunta que mencionamos no início deste trabalho: afinal, como construir um ambiente em que a inteligência artificial seja motivo de inclusão e não de exclusão? Dentro do contexto apresentado, precisamos explorar as formas como a IA se relaciona com os níveis pessoais, comunitário e institucional, contra a redução otológica, em direção ao design para o pluriverso. 5. Conclusão Com foco em todo o exposto, este estudo enfatizou que precisamos considerar abordagens que estão além da inclusão e da justiça, e que centralizem a autonomia e a soberania. Assim, não podemos abordar questões sociotécnicas, concentrando-nos apenas na parte técnica dos problemas que refletem a discriminação e exclusão. Como a IA é usada, em última análise, refletirá quais vidas nós escolhemos valorizar e quais vozes escolhemos ouvir. Então, passamos a discussão da necessidade de inteligência artificial mais inclusiva e conjuntos de dados mais representativos. O surgimento da IA requer atenção ao viés inadvertido que pode perpetuar práticas discriminatórias e experiências excludentes para pessoas de todas as tonalidades e gênero. Em síntese, podemos trabalhar com o design da IA em torno do bem-estar humano, pensando também em abordagens que incluam movimentos sociais. A IA tem o poder de melhorar a sociedade. Há uma ampla gama de mecanismos que podem ajudar a melhorar sua utilidade fazendo com que hajam boas práticas. Quando também mencionamos neste estudo alguns princípios à proteção humana ressaltamos que os direitos de personalidade são inerentes aos seres humanos, não podendo ser repassados para as máquinas, ainda que estas tenham uma grande autonomia. Precisamos considerar também abordagens que estão além da inclusão e da justiça, e que centralizem a autonomia e a soberania, bem como alguns princípios jurídicos que norteiam a dignidade humana, frente a possíveis exclusões que possam haver com IA. As tecnologias se desenvolvem aceleradamente na Revolução Industrial 4.0 e são empregadas em todos os setores de atividades, Por fim, com a inclusão em mente, podemos melhorar a coleta de dados e os algoritmos de treinamento. Desde que se consiga coletar os dados corretos, pode- se fazer isso usando o aprendizado de máquina. Portanto, o objetivo é obter os dados apropriados e encontrar o equilíbrio certo entre bom aprendizado e os resultados, pois, a tecnologia sempre visou ser utilizada para melhorar as capacidades humanas e dar uma maior qualidade de vida àqueles que a utilizam. Referências bibliográficas Obras de caráter geral e monografias BEITZ, Charles R. La idea de los derechos humanos. Marcial Pons – Ediciones Jurídicas y Sociales: Madrid, 2012. pp. 141-142; 244. CALISKAN, Aylin; BRYSON, Joanna J.; NARAYANAN, Arvind. Semantics derived automatically from language corpora contain human-like biases. Science. Vol. 356, Issue 6334, pp. 183-186. Disponível em: < http://science.sciencemag.org/content/356/6334/183>. FERREIRA, Afonso José. (2018). Profiling e algoritmos autónomos: um verdadeiro direito de não sujeitção? Em F. P. Coutinho, & G. C. Moniz, Anuário da Proteção de Dados (pp. 35-43). Lisboa: CEDIS. FIDALGO, Vítor Palmela. (2018). Inteligência Artifical e Direitos de Imagem. Em M. G. Aline Mapelli, Os impactos das novas tecnologias no Direito e na Sociedade. (p. 233). Deviant. PASK, Gordon. Uma Introdução à Cibernética. Coimbra, Arménio Armando- Editora, Colecção Studium, 1970, 252 p. (Tradução do inglês An Approach to the Cybernetics, de Luis Moniz Pereira. Londres, Hutchinson & Co., 1968). RAHWAN, I. (03 de junho de 2018). Are you scared yet? Meet Norman, the psychopathic AI. Fonte: BBC News. Disponível em: <https://www.bbc.com/news/technology-44040008>. SHAH, Hetan. Algorithmic accountability. Philosophical Transactions of the Royal Society A: Mathematical, Physical and Engineering Sciences, 2018, vol. 376, no 2128, p. 20170362. Outros documentos consultados ANGWIN Julia; LARSON, Jeff; MATTU, Surya; KIRCHNER, Lauren. Machine Bias, 23 de maio de 2016 . Propublica. Disponivel em: <https://www.propublica.org/article/machine-bias-risk-assessments-in- criminal-sentencing>. GRIFFIN, Andrew. Google photos tags black people as ‘gorillas’, puts pictures in special folder. The Independent, 1 de julho de 2015. Disponivel em: <https://www.independent.co.uk/life-style/gadgets-and-tech/news/google- photos-tags-black-people-as-gorillas-puts-pictures- in-special-folder- 10357668.html>. LOHR, Steve. The age of big data. New York Times, 2012, vol. 11, no 2012. Disponível em: < https://s3.amazonaws.com/academia.edu.documents/34393761/2_The_New_York_Times_on_The_Age_of_Big_Data.pdf? AWSAccessKeyId=AKIAIWOWYYGZ2Y53UL3A&Expires=1548817263&Signature=dqfRrEJ0HeJwoUVHqzv3m%2B5r7ZY%3D&response- content- disposition=inline%3B%20filename%3D2_The_New_York_Times_on_The_Age_of_Big_D.pdf>. O’NEILL, O. (2002). The Reith Lectures, A Question of Trust Lecture 4: Trust and Transparency. Fonte: BBC Radio. Disponível em: <https://www.bbc.co.uk/programmes/p00ghvd8>. RUMAIHI, Khalid. World Economic Forum Annual Meeting 2019. Three ways to enable the flow of data inthe Fourth Industrial Revolution. Disponível em: <https://www.weforum.org/agenda/2019/01/enabling-flow-data-fourth- industrial-revolution-cloud-middle-east-bahrain/>. 1. Advogada. Pós-Graduada em Direito Público (ASCES-UNITA). Mestranda em Direito Intelectual pela Faculdade de Direito da Universidade de Lisboa. E-mail: camilavilela@outlook.com ↵ 2. PASK, Gordon. Uma Introdução à Cibernética. Coimbra, Arménio Armando- Editora, Colecção Studium, 1970, 252 p. (Tradução do inglês An Approach to the Cybernetics, de Luis Moniz Pereira. Londres, Hutchinson & Co., 1968). ↵ 3. LOHR, Steve. The age of big data. New York Times, 2012, vol. 11, no 2012. Disponível em: < https://s3.amazonaws.com/academia.edu.documents/34393761/2_The_New_York_Times_on_The_Age_of_Big_Data.pdf? AWSAccessKeyId=AKIAIWOWYYGZ2Y53UL3A&Expires=1548817263&Signature=dqfRrEJ0HeJwoUVHqzv3m%2B5r7ZY%3D&response- content- disposition=inline%3B%20filename%3D2_The_New_York_Times_on_The_Age_of_Big_D.pdf>. Acesso em: 20 dez. 2018. http://www3.weforum.org/docs/WEF_TC_MFS_BigDataBigImpact_Briefing_2012.pdf ↵ 4. RUMAIHI, Khalid. World Economic Forum Annual Meeting 2019. Three ways to enable the flow of data in the Fourth Industrial Revolution. Disponível em: <https://www.weforum.org/agenda/2019/01/enabling-flow-data- fourth-industrial-revolution-cloud-middle-east-bahrain/>. Acesso em: 25 jan. 2019. ↵ 5. The Toronto Declaration: Protecting the rights to equality and non- discrimination in machine learning systems. Acces Now, 16 de maio de 2018. Disponível em: <https://www.accessnow.org/the-toronto- declaration-protecting-the-rights-to-equality-and-non- discrimination-in-machine-learning-systems/>. Acesso em: 20 jan. 2019. ↵ 6. RightsCon Toronto. Disponível em: <https://www.rightscon.org/>. Acesso em: 20 jan. 2019. ↵ 7. Como afirma Charles Beitz, no resulta plausible encontrar un fundamento único o formular una lista de derechos. BEITZ, Charles R. La idea de los derechos humanos. Marcial Pons – Ediciones Jurídicas y Sociales: Madrid, 2012. pp. 141-142; 244. ↵ 8. GRIFFIN, Andrew. Google photos tags black people as 'gorillas', puts pictures in special folder. The Independent, 1 de julho de 2015. Disponivel em: <https://www.independent.co.uk/life- style/gadgets-and-tech/news/google-photos-tags-black-people- as-gorillas-puts-pictures- in-special-folder-10357668.html>. Acesso em: 15 jan. 2019. ↵ 9. ANGWIN Julia; LARSON, Jeff; MATTU, Surya; KIRCHNER, Lauren. Machine Bias, 23 de maio de 2016 . Propublica. Disponivel em: <https://www.propublica.org/article/machine-bias-risk- assessments-in-criminal-sentencing>. Acesso em: 15 jan. 2019. ↵ 10. CALISKAN, Aylin; BRYSON, Joanna J.; NARAYANAN, Arvind. Semantics derived automatically from language corpora contain human-like biases. Science. Vol. 356, Issue 6334, pp. 183-186. Disponível em: < http://science.sciencemag.org/content/356/6334/183>. Acesso em: 15 jan. 2019. ↵ 11. Cfr. informação em: <https://www.ajlunited.org/>. Acesso em 23 jan. 2019. ↵ 12. Um exemplo quanto a utilização de códigos é o Aspire Mirror, projeto do Media Lab que permite que você olhe para si mesmo e veja uma reflexão em seu rosto com base no que o inspira. Desenvolvido 2015 por Joy Buolamwini, também fundadora do projeto Algorithmic Justice League. ↵ 4. Responsabilidade civil e inteligência artificial: quem responde pelos danos causados por robôs inteligentes? Christine Albiani[1] Introdução O presente artigo tem como principal objetivo perquirir quais as possíveis soluções acerca da responsabilização pelos danos causados por atos que a inteligência artificial executa de forma autônoma, isto é, sem qualquer controle ou comando dado por um ser humano. Deve-se ter em vista que, em que pese a existência de normas jurídicas voltadas para o campo da ciência, tecnologia e inovação (como a Lei n. 10.973/2004 – Lei da Inovação – e Lei n. 12.965/2014 – Marco Civil da Internet), questões como a responsabilidade civil por danos decorrentes de atos praticados por sistemas autônomos de inteligência artificial não foram regulados pelo legislador, provavelmente por nos encontrarmos num estágio ainda inicial do debate sobre o assunto, demandando maior reflexão e desenvolvimento. Para compreensão dessa temática devemos observar que robôs inteligentes e cada vez mais autônomos já fazem e vão progressivamente fazer parte do nosso cotidiano e eles efetivamente podem agir de forma equivocada e causar danos aos seres humanos. Quanto mais complexas são as soluções apresentadas pelas máquinas, é de se verificar que o Direito numa relação simbiótica com o desenvolvimento tecnológico avance para buscar compreender o que são robôs inteligentes e como deverá ser a resposta do ordenamento jurídico à sua atuação. Questiona-se se os regimes de responsabilidade civil existentes seriam suficientemente flexíveis para lidar com os novos danos derivados da relação entre humanos e robôs, precipuamente quando observarmos robôs autônomos, que conseguem por meio de aprendizagem constante, desenvolver novas habilidades, dispensando cada vez mais interferências externas para tanto, sendo capaz de agir de forma imprevista pelo seu programador e/ou proprietário. Pretende-se, portanto, analisar quem deve ser responsabilizado civilmente pelos danos causados por robôs autônomos ou por programas que utilizam inteligência artificial, perpassando por questões necessárias, como: quem deve garantir a segurança dessas novas tecnologias; se poderia ser atribuída responsabilidade civil à própria máquina mesmo sem personalidade jurídica ou se deveria ser atribuída personalidade jurídica para tanto; e se essa seria a melhor alternativa de regulação. Surge, ainda, a necessidade de observar qual seria o momento mais adequado para se instituir uma normatização sobre o referido tema, tendo em vista que com o crescente desenvolvimento e utilização da inteligência artificial nas mais diversas áreas da vida moderna, seu impacto na sociedade será maior, demandando reflexão e debate quanto à necessidade de regulação dessas novas tecnologias. Num primeiro momento, verifica-se que, conforme o ordenamento jurídico brasileiro, apenas pessoas podem titularizar direitos e contrair obrigações, e, assim, surgem uma série de dúvidas no âmbito da reparação civil, fazendo-se necessário observar a experiência de outros países com o intuito de que se investigue e se elejam formas de responsabilização que promovam a dignidade da pessoa humana (como valor maior do nosso ordenamento) – possibilitando a reparação integral da vítima – e, ao mesmo tempo, sejam compatíveis com o presente estágio tecnológico e não representem um desestímulo à ciência e inovação e ao desenvolvimento de novas tecnologias. Aparentemente, diante da sistemática de responsabilização civil adotada no Brasil, as vítimas poderão imputar responsabilidade pela reparação ao proprietário ou responsável final pela inteligência artificial e/ou seu fabricante, a depender da situação, da tecnologia e grau de autonomia. Todavia, diante do crescente progresso da Inteligência Artificial e aperfeiçoamento do Machine Learning – meio através do qual máquinas e softwares aperfeiçoam o desenvolvimento cognitivo humano, acumulando experiências próprias e extraindo delas aprendizados – se torna possível que robôs inteligentes ajam de forma independente e tomem decisões de forma autônoma. Nessa perspectiva, em que há uma maior preocupação com casos em que a máquina ou sistema se torne autossuficiente, surge uma discussão relevante sobre a possibilidade de se criar uma espécie de personalidade jurídica para esses robôs autônomos e inteligentes. Dessa forma, considerando que robôs gradativamente conseguem efetuar atividades que, de forma geral, costumavam ser realizadas exclusivamente por humanos (como cuidar de idosos e pessoas doentes; dirigir carros; fazer cirurgias e etc.) e que possuem cada vez mais autonomia e certas habilidades decorrentes de aprendizado, tomando decisões praticamente de forma independente (sendo capazes de,por si próprios, criar comandos sem que sejam programados para tanto), tornou-se urgente discutir a responsabilidade jurídica decorrente de uma conduta lesiva por parte deles. O desenvolvimento da inteligência artificial implica na reflexão de que, a depender da situação, a máquina não mais pode ser tratada como mero objeto do direito, o que remete à observação do conceito de pessoa jurídica e se esta seria uma alternativa compatível com a integral reparação de danos. De fato, não há dúvidas que quanto maior for a autonomia do robô, menos deveremos encará-lo como um instrumento, uma ferramenta, na mão de outros intervenientes como o fabricante, o operador, o proprietário, o utilizador e etc. Identificar o grau de autonomia e inteligência dessas máquinas será essencial para se estabelecer o regime de responsabilidade a ser aplicado. Assim, se mostrará necessário o desenvolvimento de um sistema de responsabilidade civil diferenciado, que englobe os diversos agentes relacionados ao dano causado pela máquina e que leva em consideração alguns fatores, como o grau de participação do agente na cadeia causal, o tipo de tecnologia utilizado, e o grau de autonomia e conhecimento científico (estado da técnica) da época. Ante a complexidade das questões relacionadas à responsabilização civil por danos causados por robôs, o Parlamento Europeu, no início do ano de 2017, adotou uma Resolução com recomendações sobre regras de Direito Civil e Robótica[2], que indica a necessidade de se regular o desenvolvimento de robôs autônomos e inteligentes, além de sugerir que se crie uma personalidade jurídica para tais robôs e que haja o estabelecimento de uma espécie de seguro obrigatório (conforme já ocorre, por exemplo, com veículos tradicionais). Num momento posterior, irá se fazer uma análise mais aprofundada da proposta de regulação da União Europeia para melhor compreensão do tema. Examinado esse panorama, destaca-se o papel do direito enquanto complexo de normas sistematizadas que regula e pacifica as relações sociais, e a necessidade de sua constante reestruturação, principalmente por causa da relação simbiótica existente com a tecnologia. Nesse sentido, ele deve atuar de forma a, de um lado, não desestimular o desenvolvimento econômico e tecnológico em crescimento, garantindo previsibilidade de que regras devem ser aplicadas (segurança jurídica) e, de outro, evitar que danos ocasionados pela utilização de tecnologias de inteligência artificial fiquem sem reparação, coibindo abusos e protegendo direitos fundamentais. A regulação deve vir não só para resguardar os direitos das partes relacionadas, mas, sobretudo, o da própria sociedade. Diante dessa necessidade de se compreender e buscar soluções referentes à responsabilização civil por atos autônomos de inteligência artificial, o primeiro tópico deste artigo é destinado a traçar um breve panorama da responsabilidade civil no ordenamento jurídico pátrio, como forma de se observar sua possível inflexibilidade e insuficiência frente à demanda da reparação por atos de robôs autônomos. O segundo tópico será um exame mais detalhado da proposta de regulação da União Europeia no que diz respeito à responsabilização decorrente de atos autônomos de máquinas que utilizam inteligência artificial, observando as sugestões dadas e as discussões a ela correlatas. Nesse ponto, será abordada principalmente a discussão acerca da viabilidade e eficácia de se atribuir personalidade jurídica ao robô autônomo e como seria a forma de reparação de danos a ser utilizada. Por fim, o terceiro e último tópico é destinado a tratar dos novos rumos da responsabilidade civil, trazendo uma análise dos meios alternativos, inclusive já utilizados em outros países, como estímulo à inovação e ao progressivo desenvolvimento de novas tecnologias. Responsabilidade Civil no Ordenamento Jurídico Pátrio Diante do ordenamento jurídico vigente, apenas pessoas físicas ou jurídicas são titulares de direitos e podem contrair obrigações, trazendo à tona questionamentos acerca da reparação civil por danos decorrentes de atos de sistemas autônomos de inteligência artificial, já que se caracterizam pela tomada de decisões independente e muitas vezes imprevisível ao programador ou proprietário. Nesse sentido, vale observar que a inteligência não é tratada como entidade autônoma, detentora de personalidade jurídica, e, portanto, ainda não pode ser responsabilizada civilmente pelos atos praticados de forma independente – sem controle prévio ou previsibilidade – restando o questionamento sobre quem será responsabilizado pelos danos oriundos de tais atos. Para tanto, deve-se analisar os regimes de responsabilidade civil existentes para saber se estes são suficientemente flexíveis para tratar desses novos conflitos oriundos da relação entre o sistema de inteligência artificial, robô inteligente, e humano, mesmo que adaptações sejam feitas para adequá-los a essa nova realidade. A responsabilidade civil numa visão tradicional consiste na obrigação, imputada por lei, de reparação de danos causados a outrem, de ordem material ou moral, em decorrência de uma conduta antijurídica, omissiva ou comissiva. Ela deriva da concepção de que há uma obrigação originária, de não acarretar danos, e, outra, sucessiva, no sentido de repará-los. Observa-se que o dano civil causa um desequilíbrio social, cujo retorno à normalidade passa pela necessidade de reparação, sendo este o objetivo da responsabilidade civil. Há quem entenda que pelo fato de a responsabilidade civil atual incidir sobre um ato voluntário (mesmo não pretendido), cujo resultado é o dano ou riscos de dano ao direito de outrem, e a inteligência artificial ser produto de uma programação complexa de algoritmos, e, portanto, desprovida de vontade, discernimento ético ou sensibilidade social – qualidades inerentes ao ser humano – seria incoerente sua responsabilização. Assim, caberia ao programador ou empresário que comercializa ou fabrica o produto arcar com os danos decorrentes dos atos de robôs inteligentes. A regra vigente no nosso ordenamento acerca da responsabilidade civil aquiliana ou extracontratual é a responsabilidade subjetiva, prevista no art. 927 do CC/02, pautada na comprovação da culpa em qualquer das suas modalidades (imprudência, negligência ou imperícia) como forma de haver a sua configuração. Com o decorrer do tempo, no entanto, em função da complexidade das relações que foram sendo estabelecidas, surgiu a necessidade de se inserir, no ordenamento jurídico pátrio, situações em que a responsabilidade civil restará configurada independentemente de culpa, com o intuito de se tutelar a parte hipossuficiente da relação jurídica e facilitar a reparação integral da vítima, pois se vislumbraria um ônus muito grande a comprovação da culpa para se obter a reparação do dano. Dessa forma, o próprio CC estabelece expressamente situações de responsabilidade objetiva (como no caso de responsabilidade civil do incapaz; dos donos de animais; do empregador pelos atos do seu empregado, previstos no art. 932), trazendo no art. 927, parágrafo único uma cláusula geral de responsabilidade objetiva genérica, que estabelece que aquele que desenvolve atividade essencialmente perigosa – seja porque se centram em bens intrinsecamente danosos ou porque empregam métodos de alto potencial lesivo – deve arcar com os riscos de danos a ela inerentes sem necessidade de comprovação de culpa. Outros diplomas legais, como o CDC, preveem outras hipóteses de responsabilidade objetiva. A larga aplicação da legislação consumerista (no que se refere aos artigos 12, 14 e 18 do CDC) consolidou a responsabilização objetiva fundada na teoria do risco da atividade, segundo o qual devem suportar os efeitos maléficos da atividade aqueles que recebem seu bônus, principalmente quando a atividade desenvolvida é passível de causar prejuízos a terceiros. Assim, as pessoas jurídicas que desenvolvem atividade empresária passaram a ser responsabilizadas objetivamente pelos danos causados. Dessa forma, paralelamente ao CC que trata das relações privadas não abrangidas pela relação de consumo, está o CDC que estipula dentre os direitos básicos do consumidor (art. 6º) o direito à vida, saúde e segurança contra os riscos provocados por práticas no fornecimento de produtos e serviços. Nesse sentido, existe um movimento de defesa da necessidade de se compreender a responsabilidade civil das inteligências artificiais sob uma ótica consumerista, tendo em vista que as relações entre fornecedor e consumidor envolvendo produtos dotados de inteligência artificial estariam sob a égide do CDC. No direito consumerista brasileiro temos como regra geral a responsabilidade civil objetiva daqueles envolvidos com o fornecimento de um produto ou serviço que ocasionou algum dano ao consumidor. A noção de defeito que caracteriza essas hipóteses baseia-se na ideia de legítima expectativa de segurança. Dessa forma, o serviço ou produto é defeituoso se não fornecer a segurança esperada ao consumidor, levando em consideração as circunstâncias do caso concreto, o resultado e os riscos que razoavelmente dele se esperam. Corroborando com essa proteção, o art. 8º estipula que produtos e serviços colocados no mercado de consumo não devem acarretar riscos aos consumidores, exceto os considerados normais e previsíveis em decorrência da sua natureza ou fruição – o que pode ser considerado um conceito extremamente aberto a ser delimitado pelo operador do direito –, obrigando-se os fornecedores a prestar as informações necessárias e adequadas a esse respeito. Aqui vislumbra-se um ponto muito delicado quando se trata de inteligência artificial, porque considerando a sua capacidade de acumular experiências e dela extrair aprendizados, há possibilidade de que, ao agir autonomamente, a ferramenta pratique atos não cogitados pelo seu fabricante e/ou programador. Dessa forma, ainda que empregada a máxima diligência, os desdobramentos da inteligência artificial não são totalmente previsíveis no atual estado da técnica, de forma que seu desenvolvimento poderá extrapolar previsões iniciais. Assim, questiona-se se seria possível ao fornecedor prever os riscos esperados pela comercialização da inteligência artificial, tendo em vista ser intrínseco ao produto a sua capacidade de autoaprendizagem e desenvolvimento, podendo alcançar, portanto, objetivos e resultados não previstos. Se a resposta for negativa e as ferramentas dotadas de inteligência artificial não fornecerem a segurança exigida, não podem entrar no mercado de consumo? Isso não desestimularia o desenvolvimento de novas tecnologias e inovação, já que muito sistemas precisam de treinamento empírico para se desenvolver e aperfeiçoar? Assim, indaga-se se seria possível a arguição, em contrapartida, do risco do desenvolvimento para afastar a responsabilidade do fabricante ou proprietário de tecnologias dotadas de inteligência artificial[3]. Essa tese consiste na possibilidade de que um determinado produto ou serviço seja colocado no mercado sem que possua defeito cognoscível, ainda que exaustivamente testado, ante ao grau de conhecimento disponível à época da sua introdução. Ocorre, todavia, que após determinado período do início da sua circulação no mercado de consumo, venha se detectar defeito – ante a evolução dos meios técnicos e científicos – capaz de gerar danos aos consumidores. Assim, os riscos só vêm a ser descobertos após um período de uso do produto, seja em razão de acidentes ou danos, ou de avanços nos estudos e testes realizados. Em razão da condição narrada, há quem entenda que, nessa hipótese, deveria haver a exclusão da responsabilidade do fornecedor como medida para se garantir o desenvolvimento tecnológico nesta seara. A ideia central é a de que o dano ocorreria não porque o fornecedor falhou nos seus deveres de segurança e diligência, mas sim porque a incognoscibilidade do defeito era absoluta diante do presente estado da técnica. Diante disso, não haveria frustação da legítima expectativa do consumidor, porque nenhuma expectativa deveria ser considerada legítima se pretende ir além do estado mais avançado da tecnologia da sua época. Por outro lado, há quem entenda que sua aplicação poderia acabar permitindo que o consumidor arcasse sozinho com a incerteza da tecnologia adquirida. Além de não ter plena consciência dos riscos e do grau de conhecimento alcançado pela ciência, ele ainda assumiria integralmente os danos que viesse a sofrer decorrentes do uso normal do produto ou serviço. Isso pareceria contraditório para o ordenamento jurídico brasileiro, porque existiriam danos sem reparação, ferindo até mesmo o neminem laedere (dever geral de não causar danos a outrem), uma vez que o legislador se preocupou em estabelecer responsabilidade independentemente de culpa, reconhecendo a vulnerabilidade dos consumidores de bens e serviços. Vale lembrar que existem casos excepcionais em que o CDC (art. 12, §3º) prevê a não responsabilização do fabricante, destacando-se a culpa exclusiva do consumidor ou de terceiro, podendo ser utilizada como excludente de responsabilidade do fornecedor ou desenvolvedor do produto que utiliza inteligência artificial. Além dessa excludente, indica-se outra aplicável à responsabilidade objetiva que também rompe o nexo casual, sendo o caso fortuito fato inevitável que se mostra como causa necessária para a ocorrência do dano. Quando a responsabilidade objetiva é fundada na teoria do risco, relevante se faz diferenciar o fortuito interno do externo, já que o interno não exonera a obrigação de reparar, porque está vinculado aos objetivos da atividade causadora do dano. Nas hipóteses em que se configura a responsabilidade objetiva, ou seja, onde se verifica a conduta ilícita, o dano material ou moral, bem como o nexo causal entre a conduta e o dano, e impõe-se o dever de indenizar capaz de restaurar o status quo ante, ou ao menos compensar o dano sofrido e evitar a prática de novos ilícitos. Transportando as noções de responsabilidade civil do ordenamento jurídico brasileiro para o âmbito da inteligência artificial, tendo em vista que atualmente ela não é considerada uma entidade autônoma que possui personalidade jurídica e, portanto, não seria diretamente responsável pelos próprios atos, a responsabilidade civil objetiva em decorrência do seu uso, inevitavelmente acabará recaindo, pelo menos num momento anterior à regulação específica do tema, sobre o empresário que a produz e aufere lucros, com fundamento no risco da atividade. É evidente que a opção pela responsabilização objetiva, quando levada ao extremo, acarreta um desestímulo ao desenvolvimento tecnológico, científico e à inovação. Deve-se observar que se o empresário faz uma análise de custo- benefício, sopesando vantagens e desvantagens na utilização da inteligência artificial e chega à conclusão que os riscos ultrapassam os benefícios econômicos pretendidos, ele deixará de investir nessa seara. Esse risco se mostra ainda mais evidente quando a máquina age de maneira autônoma, independente, sem interferência e/ou controle externo, desenvolvendo novos comandos não contidos na sua programação original, já que seu comportamento deixa de ser previsível, impossibilitando a prevenção de danos. Vale ressaltar que, se em face do empresário seria possível aplicar a teoria do risco, o mesmo não ocorre quanto ao programador, já que este só poderia ser responsabilizado subjetivamente (por ser profissional liberal). Ou seja, ele só poderia ser responsabilizado quando comprovada a ocorrência de falha na programação ou a previsibilidade quanto à conduta lesiva (ainda que não programada)[4]. Vale observar, no entanto, que só seria necessário perquirir a responsabilidade do programador quando este não estivesse vinculado a nenhuma sociedade empresária, já que esta responderia de forma objetiva. Outra situação a ser solucionada é a que envolve apenas pessoas físicas, já que há, como regra, a aplicação da responsabilidade subjetiva. Dessa forma, uma vez não demonstradaa culpa de uma das partes no dano ocasionado em razão do uso de inteligência artificial, a vítima não será indenizada pelos prejuízos sofridos e, portanto, o dano ficaria sem reparação. Neste ponto, no entanto, a depender do caso concreto e do grau de autonomia da máquina, se entendermos a inteligência artificial como ferramenta, poderia ser aplicada conforme se vê da regulação da União Europeia (que analisaremos à seguir) a responsabilização por fato de terceiro, já que se evidenciaria um dever de cuidado, cautela, fazendo surgir a responsabilização objetiva. Porém, à medida em que o grau de autonomia do sistema de inteligência artificial fosse maior, essa solução se mostraria incompatível, assim como as demais soluções tradicionais encontradas no ordenamento jurídico pátrio. Há ainda a hipótese de Inteligência artificial construída a partir de softwares livres, que podem ser usados livremente, adaptados e melhorados, de modo que com o decorrer do tempo diversas pessoas ao redor do mundo podem contribuir para a sua programação e para o desenvolvimento de suas funcionalidades, o que torna a identificação do programador um desafio, assim como a reparação de danos. Diante de todo o exposto, observa-se que o sistema de responsabilização atualmente em vigor no Brasil apenas se adequa àqueles casos em que os sistemas de inteligência artificial não tenham alcançado um nível de autonomia que lhes permita desempenhar comandos não programados. Assim, premente se faz analisar alternativas de regulação para a responsabilidade civil por atos independentes da inteligência artificial – discussão ainda incipiente no Brasil –, utilizando como referência a abordagem já iniciada no âmbito da União Europeia, já que o Parlamento Europeu em 2017 editou uma resolução com recomendações sobre o tema, assim como outras propostas adotadas internacionalmente. Proposta de Resolução da União Europeia Conforme citado anteriormente, o Parlamento Europeu, em razão da complexidade da atribuição de responsabilidade pelos danos causados por robôs, editou, no início de 2017, uma Resolução com recomendações (a serem integradas às legislações dos seus Estados-membros) sobre regras de Direito Civil e Robótica, com o intuito de estabelecer princípios éticos básicos para o desenvolvimento, a programação e a utilização de robôs e da inteligência artificial. Os danos decorrentes do desenvolvimento de sistemas de inteligência artificial, como carros autônomos e outros robôs inteligentes, foram a mola propulsora para a adoção de tal Regulamento, servindo de ponto de partida para a busca de uma resposta razoável ao se realizar a seguinte pergunta: quem responde pelos danos causados por um robô inteligente? A Resolução leva em consideração, logo na sua exposição de motivos, o fato de que em alguns anos a inteligência artificial pode ultrapassar a capacidade intelectual humana, de forma que a própria aptidão do criador em controlar a sua criação seja questionada. Essas e outras razões levariam a uma preocupação quanto à responsabilização civil. Indica-se, assim, a necessidade de se regular o desenvolvimento de robôs autônomos e inteligentes, inclusive, com a recomendação (até certo ponto imprevisível) de que se crie uma espécie de personalidade jurídica própria para tais robôs. Além disso, o Parlamento Europeu, diante da complexidade da atribuição de responsabilidade civil por atos autônomos decorrentes da inteligência artificial, sugeriu o estabelecimento de um regime de seguros obrigatórios (para fabricantes e usuários da tecnologia), conforme já ocorre, por exemplo, com veículos automotores tradicionais. Esses seguros abrangeriam danos decorrentes de atos autônomos do sistema e não só os decorrentes de atos e falhas humanas, levando-se em consideração todos os elementos potenciais da cadeia de responsabilidade. Esse regime de seguros seria, ainda, complementado (à semelhança do que ocorre com os veículos tradicionais), por um fundo de garantia de danos para arcar com os casos não abrangidos por qualquer seguro[5]. Recomendou-se, na Resolução, que independentemente da solução jurídica encontrada para a questão da responsabilidade civil pelos danos causados por robôs, na hipótese de danos extrapatrimoniais não seria admitida ao instrumento normativo que estabelece qualquer limitação em relação ao tipo de lesão, extensão dos danos e forma de reparação. Declarou-se, de início, que uma vez identificadas as partes as quais caberia a responsabilidade, esta deveria ser proporcional ao nível de autonomia do robô e de instruções dadas a ele, na medida em que, quanto maior fosse sua capacidade de aprendizagem e autonomia e mais longo o seu treinamento, maior seria a responsabilidade de quem o treinou (usuário ou proprietário). Levando-se em consideração os riscos, a corrente prevalente, pelo menos como ponto de partida, principalmente quanto aos atos de inteligência artificial que infirmem previsibilidade ao fabricante e/ou proprietário, ou seja, que não possuam ainda efetiva autonomia, defende a aplicação da responsabilidade objetiva de quem está em uma melhor posição para oferecer garantias e arcar com prejuízos, em uma concepção alinhada à gestão de riscos. Observa-se, desde logo, que as conclusões da Resolução não se afastam dos avanços da responsabilidade civil, que desloca o enfoque do ato ilícito de quem causa o prejuízo para o dano de quem injustamente o suporta, de modo a se alcançar a finalidade precípua da reparação, a distribuição das consequências econômicas geradas pelo evento danoso. A perspectiva de que o desenvolvimento da Inteligência artificial possa culminar em robôs autônomos, que se tornem ou sejam autoconscientes, alinhada à atual Teoria Geral da responsabilidade civil que preconiza, como regra, que responde pelo dano aquele que dá causa por conduta própria, são razões que justificam a solução aventada pelo Parlamento Europeu, defendida por alguns autores da doutrina, de se criar os agentes artificiais um estatuto jurídico próprio, uma espécie de personalidade jurídica para o robô em si, chamada por vezes de “e-personality” ou “personalidade eletrônica”[6]. Os países da civil law, de uma maneira geral, atribuem responsabilidade e consequente dever de compensar danos ao infrator ou alguma pessoa que seja responsável pelas ações do infrator (como nos casos de responsabilidade por ato de terceiro). Se a inteligência artificial for totalmente autônoma, realizando ações de forma independente e sem comando prévio para tanto, pode-se supor que ela deve ser ciente das suas ações, podendo, portanto, ser responsabilizada por elas. O reconhecimento pelo direito da inteligência artificial como entidade autônoma significa que esta terá direitos e um conjunto de deveres correspondentes, que devem ser debatidos com mais profundidade. Direitos e deveres só são atribuídos a pessoas, sejam naturais ou jurídicas. Assim, para que a inteligência artificial seja responsável por suas ações, devemos atribuir-lhe personalidade jurídica. Isso significa que os legisladores devem rever o arcabouço legal existente e adaptá-lo às necessidades mutáveis da sociedade. A regulação estipulada deverá, ao menos, a princípio, conter normas fundamentais, genéricas e princípios gerais do direito, de modo que não necessite de constantes alterações conforme haja mudanças na tecnologia. O que se observa, assim, é a proposta de se criar um estatuto jurídico específico para os robôs a longo prazo, na medida em que, ao menos os robôs autônomos mais sofisticados possam se enquadrar juridicamente como detentores do estatuto de pessoas eletrônicas, responsáveis por sanar quaisquer danos que eventualmente venham causar. E, se for o caso, atribuir personalidade eletrônica nas hipóteses em que os robôs tomem decisões autônomas (sem programação prévia para tal) ou em que interajam por qualquer outro modo com terceiros de forma independente. Muitos estudiosos ainda se questionam se atribuir personalidade jurídica a um robô inteligente é efetivamente omelhor caminho para a responsabilização ou se a adaptação dos meios de responsabilização civil já existentes seria suficiente, tendo em vista que se verifica a personalidade sob um viés estritamente patrimonial, sem uma análise mais aprofundada dos desdobramentos dessa solução jurídica, do que seria um robô inteligente e do seu estatuto jurídico. Nesse sentido, Carlos Affonso Souza, explicita: No cenário europeu, impulsionado por indagações sobre responsabilidade, a questão da personalidade aparece muito mais ligada à construção de um mecanismo de reparação à vítima de danos do que como resultado de uma discussão mais aprofundada sobre o que é um robô inteligente e seu estatuto jurídico de forma mais abrangente.[7] Uma questão interessante para a compreensão da proposta realizada é perquirir a razão de um ordenamento jurídico conferir personalidade jurídica a uma entidade. Se, de um lado temos as pessoas físicas, que naturalmente são detentoras de personalidade jurídica, de outro, temos situações em que o ordenamento jurídico confere ao ente personalidade jurídica autônoma, como é o caso das sociedades, associações e fundações. Se no nosso ordenamento se considerou razoável conferir personalidade jurídica a uma fundação, em razão do deslocamento de um patrimônio, não seria razoável conceder a um robô autônomo? Aí entra a discussão de se a solução de se estabelecer um estatuto jurídico próprio para a inteligência artificial como pessoas jurídicas, as dotando, assim, de personalidade jurídica, seria mesmo a resposta jurídica adequada sob o âmbito da responsabilidade civil. Salienta-se que houve muitas críticas[8] a essa recomendação feita pelo Parlamento Europeu por ser considerada uma concepção ligada excessivamente à ficção científica e que não acarretaria benefícios à efetivação das finalidades da proposta, de mitigação dos riscos e facilitação da compensação de danos às possíveis vítimas. Dessa forma, essa questão referente à personalidade jurídica dos robôs autônomos, diante da necessidade de mudança radical legislativa, de se pensar as repercussões jurídicas e se essa seria a melhor resposta à reparação de danos, acabou se restringindo a uma hipótese a ser debatida no futuro. Efetivamente, no entanto, projetos legislativos mais avançados sobre a matéria, como o ROBOLAW (título completo: Regulating Emerging Robotic Technologies in Europe: Robotics Facing Law and Ethics)[9], ao buscar compreender se é necessária nova regulamentação ou se os problemas colocados pelas tecnologias robóticas podem ser tratados no âmbito das leis existentes, não atribuem responsabilidade jurídica à inteligência artificial, tratando-se de questão, ainda, eminentemente teórica. Portanto, no litígio por danos, a inteligência artificial não poderia ser reconhecida como uma entidade dotada de personalidade jurídica para a compensação de danos. No entanto, nos termos da lei, uma situação em que os danos não são compensados não é admitida. O sistema legal atribui responsabilidade aos responsáveis pela lesão. Mas se a Inteligência Artificial não for uma pessoa jurídica, quem deverá compensar os danos causados por ela? Vale observar, primeiramente, o artigo 12 da Convenção das Nações Unidas sobre o Uso de Comunicações Eletrônicas em Contratos Internacionais que determina que uma pessoa (seja física ou jurídica) em cujo nome um computador foi programado deve ser responsável por qualquer mensagem gerada pela máquina. Assim, a negociação estabelecida pelo sistema de inteligência artificial é considerada perfeita, e válida sua manifestação de vontade, bem com as obrigações daí advindas, sem, contudo, haver o reconhecimento da sua personalidade jurídica, atribuindo a responsabilidade pelos seus atos à pessoa em cujo nome agiu. Esta concepção está de acordo com a ideia da inteligência artificial como ferramenta, devendo ser atribuída a responsabilidade ao responsável por ela, uma vez que a ferramenta não possui vontade própria, independente. Dessa forma, se aplicaria a responsabilidade objetiva pelos atos dessa máquina, vinculando a pessoa física ou jurídica em nome da qual ela atua, independentemente de tal conduta ter sido planejada ou prevista. Para alguns autores como Pagallo[10], a responsabilidade, no âmbito dos contratos, dos direitos e obrigações estabelecidos por meio da IA, é geralmente interpretada do ponto de vista jurídico tradicional, que define a IA como ferramenta (AI-as-tool ou robot-as-tool). Isso significa vincular a responsabilidade objetiva pelo comportamento da máquina à pessoa física ou jurídica em nome de quem ela age ou que está a supervisionando – usuários e proprietários –, independentemente de tal comportamento ser planejado ou previsto, com consequências similares à responsabilidade vicária[11], que justifica a responsabilidade daqueles que possuem dever de vigilância ou controle (como a responsabilidade dos pais perante os atos dos filhos ou do empregador pelos atos dos seus empregados). No direito pátrio corresponde à responsabilidade por ato de terceiro, prevista no art. 932 do CC. Vale salientar que a inteligência artificial como ferramenta implicaria reconhecer responsabilidade distinta a depender de que está fazendo seu uso. Se é utilizada por empresas para prestar serviços ou oferecer produtos, situação em que a inteligência artificial age em nome do fornecedor, ele responde; se, por outro lado, é empregada pelo usuário para desempenhar determinadas atividades sob a supervisão deste, ele responde. A justificativa para isso se dá pela constatação de que se a inteligência artificial tem, efetivamente, a capacidade de aprender com sua própria experiência, surge para o proprietário ou usuário um dever de vigilância, pois é quem seleciona ou proporciona experiências à inteligência artificial. A Resolução[12], faz menção a essa hipótese, especialmente quando as partes responsáveis por “ensinar” os robôs, cujos atos causarem danos, acabarem por serem identificados, confirmando a possibilidade de se determinar que a responsabilidade de quem o “treinou” seja proporcional ao nível efetivo de instruções dadas e da autonomia da inteligência artificial, de modo que quanto maior a capacidade de aprendizagem ou de autonomia e quanto mais longo o treinamento, será maior a responsabilidade do seu “treinador”, o que qualificaria o mal uso da tecnologia pelo proprietário ou usuário. Havendo possibilidade de agir regressivamente contra o fabricante ou criador, quando demonstrado que o defeito já existia. Assim, vale observar, ainda, que as aptidões resultantes do “treinamento” do robô não devem se confundir com aquelas estritamente dependentes da sua capacidade de autoaprendizagem, quando se procurar identificar a pessoa que deve responder pelo comportamento danoso do robô, o usuário ou o criador. Casuisticamente, portanto, os danos causados pela IA poderiam atrair as disposições sobre a responsabilidade pelo produto, conforme abordado anteriormente. No âmbito da União Europeia, a solução apresentada está de acordo com o convencionado na Diretiva 85/374/CEE do Conselho, de 25 de julho de 1985, sobre a responsabilidade pelo produto defeituoso, que possibilita a aplicação da teoria do risco do desenvolvimento[13], como excludente de responsabilidade do fabricante ou criador. Questiona-se, neste âmbito se os danos decorrentes dos atos autônomos dos robôs inteligentes poderiam ser abrangidos pelo risco do desenvolvimento ou se os fabricantes ou criadores deveriam responder pelo fato do produto, mesmo se a máquina agisse de forma inesperada, como forma de possibilitar a reparação da vítima. Essa segunda é a opinião de alguns autores[14], especialmente quanto à responsabilização pelos acidentes causados por carros autônomos. Para essa corrente adota-se a premissa de que há presunção de que qualquer dano causado pela inteligência artificial é resultado de falha humana (seja no projeto, fabricação, montagem ou dever de informação). ČERKA et al.[15] ressaltam o fato de que a responsabilizaçãopor fato do produto aos casos em que a IA causar danos deve gerar um ônus probatório extremamente gravoso a quem incumbir, justamente por causa da sua característica essencial: a autoaprendizagem conforme as suas experiências e a capacidade de tomar decisões autônomas. Se a inteligência artificial é um sistema de autoaprendizagem, por este motivo pode ser impossível traçar a tênue linha entre os danos resultantes do processo da autoaprendizagem próprio da inteligência artificial e o defeito preexistente, decorrente da fabricação produto. Trata-se de consenso doutrinário o fato de que a inteligência artificial apresenta riscos, provavelmente um risco excepcional, podendo ser considerada inerente à própria natureza da tecnologia, haja vista sua falta de limites e previsibilidade. Por tais razões, a Resolução entendeu que o atual enquadramento jurídico não seria suficiente para comportar as hipóteses de danos causados por robôs autônomos, mais sofisticados, em virtude das suas eventuais capacidades adaptativas e de aprendizagem que inferem na imprevisibilidade do seu comportamento[16]. A Resolução, então, sugere que os futuros instrumentos legislativos devem basear-se numa avaliação da Comissão de Direito Civil sobre Robótica, determinando-se que deve ser aplicada a responsabilidade objetiva pela abordagem da gestão de riscos. Se exigiria, pois, a prova de que ocorreu o dano e o estabelecimento de uma relação de causalidade entre o funcionamento do robô e os danos sofridos pela parte lesada. Por essa abordagem de gestão de riscos a responsabilidade não se concentra em quem atuou de forma negligente, como responsável individualmente, mas como a pessoa capaz de minimizar os riscos e lidar com os impactos negativos. Nesse ponto, é interessante a abordagem da teoria Deep-Pocket, conforme denominação definida no direito norte-americano. Por meio da sua aplicação, toda pessoa envolvida em atividades que apresentem riscos, mas que ao mesmo tempo são lucrativas e úteis para a sociedade, deve compensar os danos causados pelo lucro obtido. Seja o criador da inteligência artificial, o fabricante de produtos que empregam inteligência artificial, empresa ou profissional que não está na cadeia produtiva da inteligência artificial, mas que a utiliza em sua atividade (como transportadora que utiliza carros autônomos) – isto, é, aquele que tem “bolso profundo” e usufrui dos lucros advindos dessa nova tecnologia – deve ser garante dos riscos inerentes às suas atividades, sendo exigível, inclusive, que se faça um seguro obrigatório de danos[17]. Diante da complexidade de se atribuir responsabilidade pelos danos causados por robôs inteligentes, a Resolução sugeriu o estabelecimento de um regime de seguros obrigatórios (conforme já acontece, por exemplo, com carros tradicionais), que deverá impor aos criadores ou proprietários de robôs a subscrição de um seguro para cobrir danos que vierem a ser causados pelos seus robôs, sugerindo, ainda, que esse regime de seguros seja complementado por um fundo de compensação, para garantir, inclusive, a reparação de danos não abrangidos por qualquer seguro. [18] Novos Rumos da Responsabilidade Civil: caminhos alternativos como estímulo à inovação Diante da possibilidade, de num futuro próximo, se observar eventos danosos provocados autonomamente pela inteligência artificial, tornando-se incongruente a responsabilização de uma pessoa natural ou jurídica e impossível a compensação do dano sofrido, vem à tona a discussão acerca da personificação da inteligência artificial e/ou outras tentativas de se encontrar meios alternativos de responsabilização civil nestes casos. No contexto dos Estados Unidos, em relação à moderna legislação que abrange a limited liability company (LLC) o autor Shawn Bayern, em seu artigo “The implications of modern business-entity law for regulation of autonomous systems”, indica a possibilidade de as LLCs servirem de roupagem jurídica para que sistemas autônomos de inteligência artificial possam legalmente agir de forma autônoma. Diante da sua flexibilidade, a legislação permitiria, segundo o autor, a constituição de pessoas jurídicas sem membros, cujas ações são estipuladas contratualmente ou por meio de algoritmos. Nesse sentido, vale transcrever um trecho da obra do autor[19]: “Specifically, modern LLC statutes in the United States appear to permit the development of “memberless” legal entities – that is, legal persons whose actions are determined solely by agreement or algorithm, not in any ongoing fashion by human members or owners. Such autonomous legal entities are a strong candidate for a legal “technology” or technique to respond to innovations in autonomous systems. Such memberless entities can encapsulate a physically autonomous system and provide a mechanism for that system to take legally autonomous action”. Compartilhando da mesma essência das LLCs, paralelamente, estão as organizações autônomas descentralizadas (DAO – Decentralized autonomous organization[20]), que também não são reconhecidas legalmente no Brasil, mas já existem na prática, tendo suas regras estipuladas a partir de programas de computador, gerando contratos inteligentes. Verifica-se, portanto, uma tendência de se possibilitar que a inteligência artificial seja abarcada por figuras jurídicas já existentes com alguma adaptação, apesar de representar uma realidade completamente nova e sui generis, ou de se criar entidades de inteligência artificial, com estatuto jurídico próprio, implicando na necessidade de regulação. Em relação à última hipótese, vale ratificar que os problemas enfrentados quanto à possível personificação da inteligência artificial não são inéditos, uma vez que também existiam quando do surgimento das sociedades, enquanto entidades imateriais (ficção jurídica). Como consequência da relevância dessas entidades para a sociedade, diante do estabelecimento de relações jurídicas com particulares e com o próprio Estado, que o direito passou a reconhecê-las como pessoas jurídicas, com personalidade jurídica própria, independente daquela de seus membros. Diante dessa reflexão, pode-se averiguar que há possibilidade de estarmos diante de processo evolutivo assemelhado quando se trata de inteligência artificial, já que incumbirá ao direito, num futuro não distante, encontrar uma solução, evitando-se de um lado que o dano fique sem reparação e, de outro, que a regulação prejudique o desenvolvimFento tecnológico, científico e de inovação[21], prejudicando a sociedade como um todo, diante dos evidentes benefícios que a inteligência artificial pode trazer. Se a opção realizada for a da personificação da inteligência artificial com a extensão do conceito de pessoa jurídica, possibilitando a abrangência de robôs e sistemas inteligentes, haverá a necessidade de se designar uma autoridade certificadora que analise o grau de autonomia dessas máquinas, que justifique a atribuição de personalidade jurídica própria, bem como a adoção de mecanismos de prevenção de riscos e de segurança. Além disso, deverão ser instauradas penalidades para a prática de condutas ilícitas que desincentivem a reincidência de condutas danosas, podendo consistir em ferramentas de coerção como multas, bem como indenizações, e até mesmo, na suspensão temporária de funcionamento ou desativação definitiva do sistema de inteligência artificial.[22] Vale ainda, a observação de que deveria ser considerada a possibilidade de instituição de tributos específicos para tributar esses sistemas autônomos, que considerem suas peculiaridades, como a diminuição dos postos de trabalho. Além disso, estas entidades deverão subscrever um seguro que possibilite o ressarcimento de eventuais prejuízos decorrentes de atos autônomos da inteligência artificial, de forma a assegurar o cumprimento de suas obrigações. Por fim, salienta-se que, nenhuma alternativa adotada pelo Direito na regulação desse tema poderá acarretar o estabelecimento de procedimentos burocráticos, que impossibilitem o desenvolvimento científicoe tecnológico. O Direito deve atuar com a finalidade de garantir maior segurança jurídica às relações travadas a partir da inteligência artificial e estabelecer limites éticos, que inviabilizem o uso arbitrário desses sistemas autônomos contra a própria sociedade. Conclusão Por todo o exposto, podemos chegar à algumas conclusões e questões que devem ser debatidas com mais afinco pelos operadores do direitoFC, estudiosos da tecnologia, membros da sociedade civil e governamental, como forma de garantir um desenvolvimento seguro da inteligência artificial perante à sociedade. A regulamentação desse tema de forma específica deve ocorrer preferencialmente após ampla consulta de caráter multisetorial, de preferência, quando o potencial da tecnologia for mais conhecido. Deve-se considerar as consultas e propostas regulatórias relevantes de outros países sobre o assunto, bem como discussões relativas a temas correlatos, como proteção de dados. Assim sendo, as leis em vigor sobre responsabilidade civil deverão ser submetidas a testes, devendo haver, provavelmente, adaptações para se adequar à realidade da inteligência artificial. Salienta-se, desde logo, a importância do debate em relação à atribuição à máquina de uma personalidade jurídica autônoma , nem que seja para dotar a mesma de patrimônio para compensar eventuais danos, sendo esta uma solução a ser discutida e levada em consideração – conforme indicou a Resolução Europeia –, sendo necessário analisar mais profundamente o que significa dotar robôs inteligentes de personalidade à luz do nosso ordenamento jurídico e haver alterações legislativas nesta hipótese. Neste âmbito, evidencia-se, ainda, a necessidade de que a comunidade técnica (academia) das ciências do direito e da tecnologia não apenas dialogue entre si, mas se esforce para que justamente agora, no início da implementação massiva da inteligência artificial, não sejam propagados conceitos equivocados que promovam uma regulação inadequada. É evidente que a inteligência artificial ainda não encontra parâmetros teóricos muito bem definidos e que inúmeros danos podem dela derivar. É premente, portanto, a necessidade de avanços na temática para se determinar a quem deverá ser imputada a responsabilidade, principalmente, quando a inteligência artificial executa atos de forma autônoma. Conclui-se, de todo modo, pela necessidade de adoção de métodos que possibilitem a minimização e compensação dos danos decorrentes dos atos executados por inteligência artificial, utilizando, por exemplo, a sugestão aventada pelo Parlamento Europeu, de instituição de um regime de seguros obrigatórios e fundo de compensação. O enfoque da responsabilidade civil deve ser no sentido de compatibilizar a reparação do dano injusto, como forma de promoção da dignidade humana, com os avanços da tecnologia e da inovação, estimulando o desenvolvimento de novas tecnologias que possuem o crescente potencial de melhorar a qualidade de vida das pessoas na sociedade. Diante do não reconhecimento da inteligência artificial como pessoa jurídica, sujeito de direitos e obrigações, para o direito nacional e internacional, de uma forma geral, ela ainda não pode ser responsabilizada pessoalmente pelos danos que causa, a não ser que sobrevenham alterações legislativas que tragam esse reenquadramento jurídico. Dessa forma, buscou-se analisar as soluções jurídicas existentes, com adaptações do regime de responsabilidade civil em vigor, principalmente, observando as recomendações do Parlamente Europeu sobre o tema. Concluiu-se, portanto, que a adoção da responsabilidade objetiva, seja pela gestão de riscos, ou pelo vício do produto, visa proporcionar a absorção dos riscos por aqueles que tem a melhor oportunidade de contratar o seguro, impondo-se até mesmo a sua obrigatoriedade. No entanto, salienta-se que a responsabilidade objetiva, se aplicada de forma indiscriminada pode acarretar um desestímulo ao desenvolvimento científico, tecnológico e à inovação, devendo ser analisada formas alternativas para evitar que isso ocorra, como, por exemplo, com atribuição de personalidade jurídica ao robô e a sua própria responsabilização. Por outro lado, a teoria da inteligência artificial como ferramenta com a imputação de responsabilidade à pessoa em cujo nome a inteligência artificial age, ou seja, o usuário ou o proprietário, pode gerar repercussões a serem examinadas, já que impõe dever de cuidado e vigilância aos “treinadores” da inteligência artificial ou mesmo uma responsabilidade compartilhada pelos usuários na rede. Essa opção deve ser vista com cautela, pela dificuldade de se determinar com certeza se a conduta danosa decorreu simplesmente da autoaprendizagem da máquina de forma natural, ou se deu pelo “treinamento” dela, através das experiências proporcionadas. Isso deverá ser amplamente discutido na doutrina no futuro, pela tendência de se permitir ao usuário o desenvolvimento de suas próprias aplicações a partir da inteligência artificial de código aberto. Deve-se continuar analisando essa possibilidade de atribuição da responsabilidade ao “treinador” que convive de forma harmônica com as demais teorias, lembrando que conforme abordagem do Parlamento Europeu, a responsabilização civil decorrente de atos executados pela inteligência artificial depende da autonomia e instruções dadas ao robô, devendo pelo menos num primeiro momento, se aplicar em maior grau a responsabilidade objetiva de quem está mais bem colocado para minimizar riscos e oferecer garantias, havendo a adoção de seguros obrigatórios para absorver os riscos existentes com a introdução dessas novas tecnologias no mercado. Por fim, temos que ter como objetivo principal referente à temática que os estudos da legislação aplicada à inteligência artificial avancem, permitindo, com amplo debate e participação multissetorial. Esse avanço deve caminhar para a adoção de critérios determinados de responsabilização que conciliem o desenvolvimento científico, tecnológico e de inovação à reparação de danos, de forma a garantir a segurança jurídica para os usuários e empresários dessa tecnologia e a promoção da dignidade humana, diante do estabelecimento de limites éticos que impossibilitem o uso arbitrário dessas novas tecnologias. Referências bibliográficas ASARO, Pete M. The Liability Problem for Autonomous Artificial Agents. Disponível em: http://peterasaro.org/writing/Asaro,%20Ethics%20Auto%20Agents,%20AAAI.pdf BARBOSA, Miranda Mafalda. Inteligência artificial, e-persons e direito: desafios e perspetivas. Congresso Direito e Robótica, organizado pelo grupo de investigação Contrato e Desenvolvimento Social, no âmbito do projeto UID/DIR04643/2013 «De- safios sociais, incerteza e direito», desenvolvido pelo Instituto Jurídico da Faculdade de Direito de Coimbra. ČERKA, Paulius; GRIGIENĖ, Jurgita; SIRBIKYTĖ, Gintarė. Liability for damages caused by Artificial Intelligence. Computer Law & Security Review, Elsevier, v. 31, n. 3, p. 376-389, jun. 2015. CHAVES, Natália Cristina. Inteligência artificial: os novos rumos da responsabilidade civil. Direito Civil Contemporâneo, organização CONPEDI/ UMinho. Disponível em: https://www.conpedi.org.br/publicacoes/pi88duoz/c3e18e5u/7M14BT72Q86shvFL.pdf (P. 54 a 72) PIRES, Thatiane Cristina Fontão; SILVA, Rafael Peteffi da. A responsabilidade civil pelos atos autônomos da inteligência artificial: notas iniciais sobre a resolução do Parlamento Europeu. Revista Brasileira de Pol. Públicas, Brasília, Vol. 7, nº 3, 2017, p. 238-254 Disponível em: http://peterasaro.org/writing/Asaro,%20Ethics%20Auto%20Agents,%20AAAI.pdf https://www.conpedi.org.br/publicacoes/pi88duoz/c3e18e5u/7M14BT72Q86shvFL.pdf https://www.cidp.pt/publicacoes/revistas/rjlb/2017/6/2017_06_1475_1503.pdf SOUZA, Carlos Affonso; PADRÃO, Vinicius. IA transformará o direito, mas o direito transformará a IA? JOTA, 26/09/2017. Disponível em: https://www.jota.info/opiniao-e-analise/artigos/ia-transformara-o-direito-mas- o-direito-transformara-ia-26092017 SOUZA, CarlosAffonso. O debate sobre personalidade jurídica para robôs. JOTA, 10/10/2017. Disponível em: https://www.jota.info/opiniao-e-analise/artigos/o- debate-sobre-personalidade-juridica-para-robos-10102017 TEFFÉ, Chiara Spadaccini de. Quem responde pelos danos causados pela IA? JOTA, 22/10/2017. Disponível em: https://www.jota.info/opiniao-e- analise/artigos/quem-responde-pelos-danos-causados-pela-ia-24102017 1. Advogada, pós-graduanda em Direito Processual Civil e Direito Tributário pelo Curso Fórum. Graduada com Láurea Acadêmica Summa Cum Laude pelo Instituto Brasileiro de Mercado de Capitais (IBMEC - RJ). ↵ 2. UNIÃO EUROPEIA. Resolução do Parlamento Europeu, 16 de fevereiro de 2017, com recomendações à Comissão de Direito Civil sobre Robótica (2015/2103(INL)). 2017. Disponível em: http://www.europarl.europa.eu/sides/getDoc.do?pubRef=-//EP// TEXT+TA+P8-TA-2017-0051+0+DOC+XML+V0//EN#BKMD-12 . Acesso em: 11/07/2018. ↵ 3. Nesse sentido: TEFFÉ, Chiara Spadaccini de. Quem responde pelos danos causados pela IA? JOTA, 22/10/2017. Disponível em: https://www.jota.info/opiniao-e-analise/artigos/quem-responde- pelos-danos-causados-pela-ia-24102017. Acesso em: 23/09/2018. ↵ 4. Nesse sentido: CHAVES, Natália Cristina. Inteligência artificial: os novos rumos da responsabilidade civil. Direito Civil Contemporâneo, organização CONPEDI/ UMinho. Disponível em: https://www.conpedi.org.br/publicacoes/pi88duoz/c3e18e5u/7M14BT72Q86shvFL.pdf (P. 68 e 69). Acesso em: 23/09/2018. ↵ 5. Nesse sentido: TEFFÉ, Chiara Spadaccini de. Quem responde pelos danos causados pela IA? JOTA, 22/10/2017. Disponível em: https://www.jota.info/opiniao-e-analise/artigos/quem-responde- pelos-danos-causados-pela-ia-24102017 . Acesso em: 23/09/2018. ↵ 6. Nesse sentido: SOUZA, C.A. O debate sobre personalidade jurídica para robôs: Errar é humano, mas o que fazer quando também for robótico? Jota. Disponível em: https://www.jota.info/opiniao-e- https://www.cidp.pt/publicacoes/revistas/rjlb/2017/6/2017_06_1475_1503.pdf https://www.jota.info/opiniao-e-analise/artigos/ia-transformara-o-direito-mas-o-direito-transformara-ia-26092017 https://www.jota.info/opiniao-e-analise/artigos/o-debate-sobre-personalidade-juridica-para-robos-10102017 https://www.jota.info/opiniao-e-analise/artigos/quem-responde-pelos-danos-causados-pela-ia-24102017 analise/artigos/o-debate-sobre-personalidade-juridica-para-robos- 10102017. Publicado em: 10/10/2017. Acesso em: 20/09/2018. ↵ 7. SOUZA, C.A. O debate sobre personalidade jurídica para robôs: Errar é humano, mas o que fazer quando também for robótico? Jota. Acesso em: https://www.jota.info/opiniao-e-analise/artigos/o-debate- sobre-personalidade-juridica-para-robos-10102017 . Publicado em: 10/10/2017. Acesso em: 20/09/2018. ↵ 8. NEVEJANS, Nathalie. European civil law rules in robotics. European Union, 2016. Disponível em: http://www.europarl.europa. eu/committees/fr/supporting-analyses-search.html. Acesso em: 17 out. 2017. ↵ 9. Projeto lançado oficialmente em março de 2012 e financiado pela Comissão Europeia para investigar formas em que as tecnologias emergentes no campo de bio-robótica (na qual está incluída a IA), vem influenciando os sistemas jurídicos nacionais europeus. A matéria desafia as categorias e qualificações jurídicas tradicionais, expondo quais os riscos para os direitos e liberdades fundamentais que devem ser considerados, e, em geral, demonstra a necessidade de regulação e como esta pode ser desenvolvida no âmbito interno de cada país. A esse respeito, cf.: PALMERINI, Erica. The interplay between law and technology, or the RoboLaw. In: PALMERINI, Erica; STRADELLA, Elettra (Ed.). Law and Technology: The Challenge of Regulating Technological Development. Pisa: Pisa University Press, 2012. p. 208. Disponível em: http://www.robolaw.eu/RoboLaw_files/documents/Palmerini_Intro.pdf. Acesso: 20 de janeiro de 2019. ↵ 10. PAGALLO, Ugo. The laws of robots: crimes, contracts, and torts. Heidelberg: Springer, 2013. ↵ 11. “Responsabilidade vicária é o termo utilizado, principalmente nos países de common law, para designar a responsabilidade do superior hierárquico pelos atos dos seus subordinados ou, em um sentido mais amplo, a responsabilidade de qualquer pessoa que tenha o dever de vigilância ou de controle pelos atos ilícitos praticados pelas pessoas a quem deveriam vigiar. (...) No direito pátrio, seriam os casos de responsabilidade pelo fato de terceiro, derivada de um dever de guarda, vigilância e cuidado, nos termos do art. 932 do Código Civil, como a responsabilidade dos pais pelos atos dos filhos menores que estiverem sob o seu poder e em sua companhia, o tutor e o curador pelos pupilos e curatelados, e o patrão pelos atos dos seus empregados.” PIRES, Thatiane Cristina Fontão; SILVA, Rafael Peteffi da. A responsabilidade civil pelos atos autônomos da inteligência artificial: notas iniciais sobre a resolução do Parlamento Europeu. Revista Brasileira de Pol. Públicas, Brasília, Vol. 7, nº 3, 2017, p. 238-254 Disponível em: https://www.cidp.pt/publicacoes/revistas/rjlb/2017/6/2017_06_1475_1503.pdf. Acesso em: 22/11/2018. ↵ 12. UNIÃO EUROPEIA. Projeto de Relatório que contém recomendações à Comissão sobre disposições de Direito Civil sobre Robótica (2015/2013(INL)). Relatora Mady Delvaux, de 31 de maio de 2016. p. 11. Disponível em: http://www.europarl.europa.eu/sides/getDoc.do? pubRef=-//EP// NONSGML+COMPARL+PE- 582.443+01+DOC+PDF+V0//PT . Acesso em: 22/11/2018. ↵ 13. A diretiva poderia ser aplicada em diversas circunstâncias em que produtos que apresentem a tecnologia da IA sejam introduzidos no mercado de consumo, particularmente aos casos em que o fabricante não informa suficientemente ao consumidor os riscos associados aos robôs autônomos, ou se os sistemas de segurança do robô forem deficientes a ponto de não oferecerem a segurança esperada. Uma vez cumpridos os deveres de informação e de segurança impostos ao fornecedor e provado que não há defeito na sua fabricação, permanece, porém, a polêmica acerca da aplicação da responsabilidade pelo produto aos danos causados pela IA, tendo em vista, ainda, que a diretiva europeia prevê, expressamente, a excludente da responsabilidade do produtor pelos riscos do desenvolvimento. PIRES, Thatiane Cristina Fontão; SILVA, Rafael Peteffi da. A responsabilidade civil pelos atos autônomos da inteligência artificial: notas iniciais sobre a resolução do Parlamento Europeu. Revista Brasileira de Pol. Públicas, Brasília, Vol. 7, nº 3, 2017, p. 238-254 Disponível em: https://www.cidp.pt/publicacoes/revistas/rjlb/2017/6/2017_06_1475_1503.pdf. Acesso em: 22/11/2018. ↵ 14. Nesse sentido, cf.: VLADECK, David C. Machines without principals: liability rules and Artificial Intel- ligence. Washington Law Review, n. 89, p. 126, 2014. ↵ 15. ČERKA, Paulius; GRIGIENĖ, Jurgita; SIRBIKYTĖ, Gintarė. Liability for damages caused by Artificial Intelligence. Computer Law & Security Review, Elsevier, v. 31, n. 3, p. 376-389, jun. 2015. ↵ 16. UNIÃO EUROPEIA. Resolução do Parlamento Europeu, de 16 de 16. UNIÃO EUROPEIA. Resolução do Parlamento Europeu, de 16 de fevereiro de 2017, com recomendações à Comissão de Direito Civil sobre Robótica (2015/2103(INL)). 2017. Disponível em: http://www.europarl.europa.eu/sides/getDoc.do?pubRef=- //EP//TEXT+TA+P8-TA-2017-0051+0+DOC+XML+V0//EN#BKMD- 12. Acesso em: 22/11/2018. Parágrafo “AH” e “AI”. ↵ 17. Nesse sentido: ČERKA, Paulius; GRIGIENĖ, Jurgita; SIRBIKYTĖ, Gintarė. Liability for damages caused by Artificial Intelligence. Computer Law & Security Review, Elsevier, v. 31, n. 3, p. 376-389, jun. 2015. ↵ 18. UNIÃO EUROPEIA. Resolução do Parlamento Europeu, de 16 de fevereiro de 2017, com recomendações à Comissão de Direito Civil sobre Robótica (2015/2103(INL)). 2017. Disponível em: http://www.europarl.europa.eu/sides/getDoc.do?pubRef=- //EP//TEXT+TA+P8-TA-2017-0051+0+DOC+XML+V0//EN#BKMD-12 Acesso em: 10 out. 2017. Parágrafos 57, 58 e 59. ↵ 19. BAYERN. The implications of modern business-entity law for regulation of autonomous systems,2015, p. 96. ↵ 20. WIKIPEDIA. Organização autônoma descentralizada. Acesso em: <https://pt.wikipedia.org/wiki/Organiza%C3%A7%C3%A3o_aut%C3%B4noma_descentralizada> Visto em: 24/01/2019. ↵ 21. Nesse sentido: CHAVES, Natália Cristina. Inteligência artificial: os novos rumos da responsabilidade civil. Direito Civil Contemporâneo, organização CONPEDI/ UMinho. Disponível em: https://www.conpedi.org.br/publicacoes/pi88duoz/c3e18e5u/7M14BT72Q86shvFL.pdf (P. 70). Acesso em: 23/09/2018. ↵ 22. Nesse sentido: CHAVES, Natália Cristina. Inteligência artificial: os novos rumos da responsabilidade civil. Direito Civil Contemporâneo, organização CONPEDI/ UMinho. Disponível em: https://www.conpedi.org.br/publicacoes/pi88duoz/c3e18e5u/7M14BT72Q86shvFL.pdf (P. 71). Acesso em: 23/09/2018. ↵ 5. A inteligência artificial e o ecossistema financeiro Fernanda Borghetti Cantali[1] 1. Introdução: a mudança de era A inteligência artificial é uma das tecnologias disruptivas mais impactantes, que vem transformando indelevelmente os negócios e o modo de ser em sociedade, ainda que muitas pessoas não a percebam em suas vidas e pensem que ela só existe no mundo da ficção científica. Quando se afirma que a sociedade não está passando por uma era de mudanças, mas por uma mudança de era, não se pretende apenas usar uma frase de efeito. Klaus Schwab (2016), fundador e presidente executivo do Fórum Econômico Mundial, defende que a revolução tecnológica pela qual passa a sociedade atualmente é de tal profundidade que implica em uma nova fase da história da humanidade, a qual chamou de quarta revolução industrial. Defende-se que as novas tecnologias não representam apenas mais um aspecto da terceira revolução industrial, a chamada revolução digital, ligada ao fenômeno da computação que culminou com o advento da Internet. Três são os fatores que indicam tratar-se de uma distinta revolução: a velocidade, considerando que as revoluções anteriores se deram em um ritmo linear e que a atual evolui de forma exponencial; a amplitude e profundidade, na medida em que a combinação da revolução digital com as novas tecnologias, como, por exemplo, a inteligência artificial, implica na alteração de “quem” as pessoas são e não apenas “o que” e “como” fazem as coisas; e, por fim, o impacto sistêmico, já que transforma sistemas inteiros, entre países, dentro deles, nas empresas e em toda a sociedade (SCHWAB, 2016, p. 13). Essa “nova era”, ou quarta revolução industrial, como chamou Schwab (2016), está principalmente marcada pelo uso de inteligência artificial, desenvolvimento do aprendizado das máquinas e de uma internet mais ubíqua e móvel, consubstanciada em sensores menores e mais poderosos.[2] Não é à toa que Andrew Ng (2017), ex- cientista chefe do Baidu e cofundador do Coursera, impactou o mundo dizendo que a inteligência artificial é a nova eletricidade. Afirma que a eletricidade transformou quase tudo há cem anos e que hoje é difícil pensar em algum negócio que não será transformado em decorrência das aplicações de inteligência artificial. Um dos sistemas que vem sendo fortemente impactado e será completamente transformado pelas novas tecnologias em curto espaço de tempo é o financeiro. Trata-se, sem dúvidas, de campo fértil para as aplicações de inteligência artificial. Há bem pouco tempo não se cogitaria da existência de robôs investidores ou mesmo de decisões automatizadas que aproximam financiadores dos empresários que precisam buscar crédito no mercado. Estes são exemplos, dentre outros tantos, que podem ser utilizados para demostrar as aplicações de inteligência artificial no ecossistema financeiro. Análise de mercado, análise de risco, investimento e gestão da riqueza, planejamento financeiro, representam hoje as principais aplicações de inteligência artificial nesse mercado, o qual vem também fortemente impactado pelo surgimento das chamadas fintechs, que nada mais são do que empresas que unem tecnologia aos serviços financeiros, criando novos modelos de negócios que afrontam as estruturas dos bancos tradicionais. Portanto, as questões principais que permeiam este artigo são: como as aplicações de IA estão mudando o mercado financeiro; como estão mudando os modelos operacionais das instituições financeiras? A IA está mudando as prioridades estratégicas e a dinâmica competitiva dos serviços financeiros? Quais são os desafios decorrentes das aplicações de inteligência artificial no setor financeiro? Por fim, aplicações de IA podem democratizar o mercado financeiro? Para refletir sobre os problemas postos, objetiva-se, com o presente artigo, apresentar as principais aplicações de IA no ecossistema financeiro, tanto no contexto das fintechs como no dos bancos tradicionais; identificar os principais desafios associados ao desenvolvimento de aplicações de IA neste ecossistema, incluindo as consequências da tomada de decisões automatizadas por algoritmos inteligentes e a reflexão sobre a (in)suficiência da regulamentação existente para dar conta das novas formas de fazer e de ser nessa nova era. Os riscos advindos do uso das novas tecnologias são imensos, mas a grande maioria das pessoas que estudam e refletem sobre estes temas não poupam esforços em defender que as oportunidades decorrentes dessa revolução tecnológica podem tornar o mundo melhor e é nesse sentido que se busca fazer uma análise otimista das aplicações de IA no ecossistema financeiro. 2. Fintechs e os novos modelos de operação dos bancos tradicionais As tecnologias financeiras estão mudando os modelos operacionais das instituições financeiras. Novas prioridades estratégicas e uma dinâmica competitiva vem se estabelecendo, mudando radicalmente a forma de fazer negócio nesse mercado. O PayPal, com seu sistema de pagamentos online, iniciou a transformação da estrutura dos bancos tradicionais pelo uso de tecnologia financeira nos anos 1990. Até hoje representa uma empresa líder no movimento fintech. (REED, 2016). Fintech é palavra que resulta da união de financial e technology, significando simplesmente tecnologia financeira. Jeff Reed (2016, posição 76/78) afirma que: When the twenty-first century came around, a new financial service emerged, and it was known as financial technology or FinTech. This term originally was used to describe the technology that was used by consumers and trades done by financial institutions. However, at the end of the first decade, of the twenty-first century, it now includes any technological innovation that has been made within the financial sector. This includes any innovation that have been made in education, retail banking, financial literacy, and even cryptocurrencies. Tratam-se majoritariamente de startups que buscam inovar e otimizar os serviços financeiros. Através do uso da tecnologia e a partir de modelos de negócios altamente escaláveis, são empresas que conseguem oferecer serviços financeiros muito mais baratos e mais eficientes. Um banco digital, por exemplo, não precisa de agências físicas e, portanto, seu custo operacional é muito menor comparado às instituições financeiras tradicionais do setor. Assim, conseguem oferecer serviços mais baratos. O Nubank e o Guia Bolso são dois exemplos de fintechs que estão modificando os modelos operacionais das instituições financeiras e rompendo com a dinâmica competitiva tradicional. Na verdade, se poderia até mesmo afirmar que as fintechs estão introduzindo a competição no mercado financeiro. Até então, os serviços financeiros sempre foram muito concentrados nas mãos de pouquíssimos bancos, principalmente tomando-se como exemplo uma realidade como a brasileira[3]. O mercado financeiro brasileiro efetivamente voltou-se para inovação e tecnologia no setor no ano de 2016. Em 2018, só no Brasil, os investimentos em novas fintechs ultrapassaram 500 milhões de reais. Nos últimos 18 meses nasceram 188 novas fintechs no Brasil, o que coloca o país como o maior polo de empresas desta natureza na América Latina. Atualmente, existem quase 400 startups fintechs no Brasil. A médiade crescimento anual é de 48%. Os principais segmentos de atuação das fintechs brasileiras são: o de pagamentos e remessas, a exemplo do PagSeguro; o de gestão financeira empresarial, o de empréstimos, sejam aos consumidores, sejam empresariais; e o de investimentos, como o Waren. (FINNOVISTA FINTECH RADAR, 2018).[4] As fintechs utilizam muitas aplicações de inteligência artificial para viabilizar e melhorar os seus serviços. Mapeando o uso desta tecnologia, a CB Insights (2017) demonstra que as que mais usam são: as investechs, subcategorias de fintechs ligadas ao mercado de investimentos e gestão de ativos, as quais usam inteligência artificial para a tomada de decisão sobre investimentos; as insurtechs, que são as fintechs de seguros e as regtechs, também chamadas de legaltechs, que são startups que oferecem soluções tecnológicas para resolver problemas gerados pelas exigências regulatórias e de compliance. Visam auxiliar as empresas a estarem em conformidade com a regulação existente. Aliás, este segmento de fintech tem grande relevância no Brasil, onde a regulamentação é farta, embora as vezes inexistente, e de difícil compreensão. As legaltechs permitem economia de multas e outras penalidades, reduzindo os riscos de desconformidade ocasionados pelos processos manuais. Com o aparecimento das fintechs, os bancos tradicionais também começaram a investir em novas tecnologias, de modo especial em aplicações de inteligência artificial. As instituições financeiras hoje consideram que o uso de inteligência artificial representa uma vantagem competitiva, já que suas aplicações permitem melhorar receitas, reduzir perdas, melhorar a experiência do cliente, além de gerar eficiência operacional. (MAROUS, 2017a). O relatório do Fórum Econômico Mundial, elaborado em colaboração com a Deloitte, intitulado New Physics of Financial Services (2018) aponta que até 2021 a expectativa mundial de investimento dos bancos em inteligência artificial é de 58 bilhões de dólares, que 48% do crescimento do setor se dará através de investimento nesta tecnologia, assim como que 76% dos bancos concordam que a adoção de inteligência artificial será um aspecto crucial para que os agentes econômicos se diferenciem no mercado. A maior parte dos questionamentos que pautaram a construção deste artigo foram objeto de reflexão no Fórum Econômico Mundial. O relatório acima referido traz uma extensa análise sobre os avanços trazidos pelas novas tecnologias ao setor financeiro, com algoritmos inteligentes capazes de tomar decisões que reduzem custo e oferecem novas possibilidades aos consumidores e investidores. De forma geral, a principal conclusão é a de que a inteligência artificial revoluciona o setor porque rompe os elos tradicionais entre os entes financeiros, determinando que os modelos de atuação sejam redesenhados. (WEFORUM, 2018). A inteligência artificial permite que sejam criados modelos de operação totalmente novos e cria nova dinâmica competitiva que recompensa as instituições focadas em escala e sofisticação de dados, na customização e na eficiência, satisfazendo melhor os consumidores e investidores. Essa conclusão é possível através do quadro comparativo que o relatório traz entre as bases das instituições financeiras tradicionais e as bases para o futuro delas. (WEFORUM, 2018). Enquanto as instituições financeiras tradicionais trabalhavam sob a lógica da escala de ativos, concentradas na complexidade do capital em si, as do futuro trabalham com a escala de dados, cuja eficiência operacional é maximizada de forma exponencial com o uso de inteligência artificial. As instituições financeiras do futuro permitem uma experiência customizada, adaptada ao perfil do consumidor, enquanto as tradicionais trabalhavam com produção em massa. Os bancos tradicionais utilizavam como estratégia para a retenção do consumidor os altos custos de transferência; os do futuro terão que se adaptar a possibilidade de portabilidade dos dados, assim, precisarão de clientes engajados pelo melhor resultado. A lealdade do cliente poderá estar atrelada a eficiência das finanças autoguiadas por inteligências artificiais. E por fim, justamente a melhoria de performance em decorrência do uso da tecnologia aliada ao talento humano. Aliás, as inteligências artificiais fortes[5] permitem que os serviços melhorem progressivamente com o tempo, na medida em que os usuários interagem com ela. As instituições financeiras tradicionais dependiam apenas da capacidade humana. (WEFORUM, 2018). Um dos fatores que torna as fintechs particularmente disrruptivas para o mercado financeiro, bem como as torna competitivas, é justamente o fato de estarem voltadas para a experiência do cliente. Jeff Reed (2016, posição 196/200) destaca que Unlike banks, which have been able to function irrespective of the needs of its customers for decades, fintechs is required to be user-friendly in order to attract participants. No one needs to be convinced to open an account with a bank – but you do need convincing to try out something radically new and different such as online lending. The best way to attract users is to make it Worth their while and user-friendly. Banks often develop online tools, but they are far from easy in terms of operability. Most do not design with customer need in mind. That’s where fintechs comes in and changes the market. Porém, mais do que se voltarem para o consumidor e tornarem a operação digital o seu core business, os bancos precisarão se reinventar na medida em que os modelos de negócios peer to peer (P2P)[6], permitem que as pessoas se conectem diretamente entre si para troca de produtos e serviços, dispensando os intermediários. Um empresário que precisa de dinheiro não precisa mais ir a um banco tomar um empréstimo, poderá buscá-lo junto de outros empresários. (REED, 2016). Se fala em peer-to-peer lending, o chamado empréstimo coletivo. Recentemente, o Conselho Monetário Nacional – CMN editou a Resolução nº 4.656 criando as Sociedades de Empréstimos entre Pessoas – SEP, justamente para regular as plataformas eletrônicas de aproximação P2P. Contudo, essa transformação no ecossistema financeiro ainda é mais invisível do que parece ser. As novas tecnologias, em especial a inteligência artificial, estão revolucionando de forma radical e irreversivelmente o setor, mas os efeitos ainda não são completamente visíveis. O exemplo clássico é a sugestão de filmes feita pelo Netflix. As sugestões são distintas dependendo de quem é o usuário. Esse é o efeito invisível gerado pela aplicação de inteligência artificial que seguramente impacta as pessoas e as organizações, já que estas implementam lucratividade retendo o cliente pela customização propiciada pela leitura inteligente dos dados fornecidos por aquele. As instituições financeiras também utilizarão, cada vez mais, análises preditivas para, a partir do comportamento do cliente, oferecer produtos personalizados. Imperceptível ou não, finalmente, a experiência do consumidor com serviços financeiros tende a melhorar. 3. Principais aplicações de inteligência artificial no ecossistema financeiro O uso de inteligência artificial nos serviços financeiros traz mais segurança, já que detecta e previne fraudes. Os agentes inteligentes são capazes de identificar cenários de fraudes e anomalias contextuais com mais precisão do que processos manuais. Conforme o relatório Bank of the Future, produzido pelo Citi GPS (2018), a aplicação de IA pode reduzir em até 30% o tempo de detecção de uma fraude e até 80% o número de falsos positivos e falsos negativos[7] nas investigações de fraudes. É possível a identificação precisa e real do cliente, até mesmo pela localização, assim como oferecem proteção da privacidade e contra o phishing[8]. Juntamente com o propósito de segurança e aplicações contra a fraude, a autenticação biométrica é outra aplicação de inteligência artificial que já vem sendo bastante implementada nos serviços financeiros. (MAROUS, 2017b). Soluções de inteligência artificial tambémservem para automatização de processos internos, o que também permite o monitoramento de transações objetivando prevenir a lavagem de dinheiro e a manipulação de mercado. Com procedimentos mais seguros, viabiliza-se a estruturação de serviços financeiros dos mais diversos. Até mesmo serviços mais simples para atendimento de populações desfavorecidas que não representavam foco de interesse para os bancos tradicionais dado o custo de sua estrutura operacional. Como exemplos, tem-se o cartão pré-pago para realização de compras oferecido pelo Banco Maré, a plataforma de negociações de dívidas Quero Quitar e os serviços de assistência aos microempreendedores individuais da SmartMEI. A personalização do marketing e da oferta de produtos ou serviços também é propiciada pelas soluções de inteligência artificial, melhorando a gestão de relacionamento com o cliente. Até mesmo os bancos de varejo já estão implementando análises preditivas para estudar comportamento do cliente e oferecer produtos personalizados e consultoria de investimento. (Citi GPS, 2018). Essa personalização dos serviços, baseada na gestão da identidade do cliente atinge ponto máximo com a omnicanalidade. Não é novidade que o consumidor está cada vez mais exigente e informado e para responder as suas necessidades é preciso unificar os canais de contato das empresas: redes sociais, dispositivos móveis, e- mails, mensagens instantâneas, etc. Essa interrelação de canais é a chave para melhorar a experiência do cliente. A gestão da relação com o cliente também pode ser aprimorada com a criação de canais de atendimento integrados com as assistentes virtuais tais como a Siri da Apple ou a Alexa da Amazon, as quais podem estar estruturadas para prever antecipadamente a dúvida do cliente e já responder. Esse comportamento preditivo revoluciona a forma de interação com o consumidor e só é alcançado pela análise de dados feita pela inteligência artificial. Exemplo interessante que ilustra a oferta de serviços personalizados é o da fintech chamada Finpass. Ela é conhecida como o Tinder do sistema financeiro porque possui um algoritmo de matching, ou seja, em poucos segundos ele avalia um mercado composto por aproximadamente 150 bancos, milhares de fundos de investimentos e centenas de fintechs, para descobrir qual a melhor opção para obtenção de crédito. O algoritmo indica qual é o financiador mais compatível com o perfil do negócio de quem precisa de um empréstimo ou precisa antecipar recebíveis. Ou seja, através de decisões automatizadas aproxima quem concede crédito daquele que precisa de crédito. O uso de inteligência artificial nesse caso melhora a experiência do cliente, permitindo que se ofereça serviços personalizados. Essa personalização também está ligada com a questão da segurança, já que a inteligência artificial permite uma análise de risco mais apurada, baseada em criação de sistemas de pontuação de crédito, o chamado credit scoring. O método de análise de crédito que atribui uma pontuação para o potencial cliente visando classificá-lo estatisticamente em grupos ou perfis para que uma instituição financeira possa decidir conceder ou não algum produto de crédito não é novo, mas a apuração desse credit scoring por uma inteligência artificial é mais rápida, mais eficiente e até mesmo pode ser utilizada para afastar distorções[9]. O credit scoring é malvisto por muitas pessoas porque pode ser utilizado como critério de discriminação. Contudo, certamente diminui custos de transação quando associado à desburocratização e agilidade para realização de operações financeiras, assim como para criação de outras tendências em investimentos. Outra aplicação de inteligência artificial que é uma tendência no mercado financeiro é o uso de chatbots, ou seja, os agentes digitais de atendimento ao cliente para consultas rotineiras. Os chatbots são muito utilizados pelas fintechs, mas os bancos tradicionais também estão se rendendo. A Bia do Bradesco se diz pioneira no Brasil. Estatisticamente, 80% das consultas recebidas pelas instituições financeiras poderiam ser automatizadas, além disso, os bots[10] podem ser dimensionados para lidar com aproximadamente 2 milhões de consultas diárias. (Citi GPS, 2018). A capacidade de atendimento é potencializada de forma exponencial. A inteligência artificial também pode ser utilizada para a gestão da riqueza e consultoria de investimentos. As negociações podem ser feitas de forma automática, baseadas em análises de mercado cujas previsões são apuradas através do Big Data e dos algoritmos. O cliente pode preferir negociações automáticas e de alta frequência, mas também pode optar apenas pelo uso de recomendações. Estas podem auxiliar o planejamento financeiro. O robô investidor, também chamado de robô-advisor, é uma aplicação de inteligência artificial baseada em modelos preditivos, disponibilizada em plataformas digitais que fornecem serviços de planejamento financeiro automatizado. Com base nas informações do cliente sobre seu perfil, sua situação financeira e suas metas futuras, são oferecidas carteiras de investimentos que são 100% controladas pelo robô. (Citi GPS, 2018). O Ueslei é um robô investidor que trabalha com estratégia e eficiência operacional e que se apresenta na rede da seguinte forma: Sou um conjunto de algoritmos programados pelos humanos da Vérios para cuidar bem dos seus investimentos. Não tenho um corpo físico, mas as pessoas costumam me chamar de “robô”. Faço cálculos que os humanos consideram muito complexos e repetitivos, e realizo operações financeiras de compra e venda de ativos de acordo com os resultados desses cálculos. Monitoro milhares de carteiras de investimentos 24 horas por dia, sete dias por semana (mas confesso que geralmente não acontece muita coisa durante as noites e os fins de semana). (VÉRIOS BLOG, 2017). É, no mínimo, muito amigável. Paradoxalmente, cria uma experiência mais humana do que a oferecida nos bancos tradicionais que trabalhavam sob a lógica da produção em massa. A estrutura mais amigável e humana oferecida pelas fintechs não deixa de representar uma estratégia competitiva. Afinal, eles precisam conquistar o cliente, precisam convencê-lo a experimentar o novo. (REED, 2016). Os bots, além de amigáveis são eficientes e, assim, permitem que até mesmo as pessoas menos iniciadas no mercado financeiro possam investir com um grau de segurança maior, dado que o seu consultor estará controlando vinte e quatro horas por dia as oscilações do mercado, a fim de comprar e vender os ativos e manter a rentabilidade daqueles que nele confiaram. A BI Intelligence (2016), serviço de pesquisa premium da Business Insider demonstrou que em 2015 já havia US$ 100 bilhões de ativos no mundo sendo administrados por robôs-advisors, mas a expectativa é a de que gerenciem US$ 8 trilhões globalmente até 2020. Outro dado muito interessante, conforme as previsões do Gartner Customer 360 (2011) é o de que até 2020 as pessoas estarão gerenciando 85% dos seus relacionamentos negociais sem a interação humana. As instituições financeiras, sejam bancos consolidados sejam startups fintechs – assim como em outros setores -, poderão implementar bots não só através de seus próprios aplicativos, desenvolvendo o robô internamente ou usando o serviço de terceiros, mas também integrá-los com redes sociais e aplicativos de mensagens. Um exemplo que já existe é o do Banco Original, um banco digital que tem um bot que interage pelo Messenger do Facebook. Esses bots também poderão estar interligados com os assistentes virtuais, interagindo com eles e realizando tarefas que antes eram apenas realizadas pelos seres humanos. Como visto, muitas são as aplicações de inteligência artificial no ecossistema financeiro, as quais vem sendo fortemente utilizadas pelas fintechs. Os bancos tradicionais também estão enfrentando a questão, mas não tem o mesmo nível de maturidade. Os bancos utilizam mais soluções de inteligência artificial no back-end, ou seja, nas estruturas internas, para automação deprocessos existentes e melhoria dos sistemas de pagamentos pela redução de fraudes e falsos positivos. As aplicações de front-end, ou seja, aquelas de interação direta com o usuário, como interfaces amigáveis, uso de chatbots e robôs-advisors são menos consolidadas nos bancos e melhor exploradas pelas fintechs. (KOCIANSKI; DYKE, 2018). Essa diferença de maturidade fica evidente com os dados apresentados pelo Digital Banking Report de que só 15% dos bancos estão desenvolvendo uma ou mais soluções baseadas em inteligência artificial, 38% entendem que tais soluções estão nas metas para serem consideradas nos próximos 18 meses e 25% não tem planos de implementação de inteligência artificial nos próximos 18 meses. (MAROUS, 2017b). Com mais ou menos maturidade, fato é que a tecnologia está revolucionando o ecossistema financeiro. E há quem defenda que a grande virada somente ocorrerá com a adoção do open banking e das interfaces de programação de aplicativos – APIs para os serviços financeiros. Hoje já é possível se cadastrar em um jornal usando o perfil do Google, por exemplo. Estas interfaces já são conhecidas, mas não são utilizadas nos serviços financeiros. Conforme o Relatório Fintech Trends (2017), o open banking nada mais é do que o compartilhamento de informações financeiras eletronicamente em uma plataforma unificada. Imagine usar um sistema de internet banking único, possibilitando o acesso a diversas contas bancárias em um único aplicativo, agilidade em pagamentos via internet sem a necessidade de acessar o sistema do banco, acesso a produtos de diferentes instituições financeiras em um único aplicativo. Além disso, é o open banking que viabilizará a portabilidade de contas correntes. O Banco Central do Brasil anunciou no final de 2018 que prepara a regulamentação para implementar o open banking no Brasil em 2019. A tendência é, nessa medida, a utilização das novas tecnologias para facilitar o acesso aos serviços financeiros, assim como melhorar a experiência do usuário. Aliás, essa ideia de reunir diversos serviços, de diferentes origens, em um único aplicativo, até mesmo ultrapassando a fronteira dos serviços financeiros, já é realidade na China com o seu super aplicativo WeChat, o qual é responsável pela criação de um ecossistema de comunicação completamente inovador.[11] Na verdade, o WeChat transformou o significado de comunicação, combinando esta com comércio, mídia e entretenimento. O WeChat não é só um sistema de mensagens de texto e de voz ou de ligações e chamadas de vídeo grátis, oferece também carteira de investimentos, sistema de pagamentos eletrônicos, transferências bancárias sem taxas, pagamento de contas, carteira eletrônica, compras em grupo, compras diversas como em supermercado, pedido de comida, aluguel de bicicleta compartilhada, solicitação de serviço de taxi ou Uber, etc. É também agência de viagens para compra de passagens de trem, avião e hospedagem, possui mídias sociais, a exemplo do Facebook, Instagram e Twiter, todos bloqueados pelo firewall do Governo Chinês, além de oferecer aplicações de relacionamentos, como a do Tinder e outras coisas que, no Brasil, não são viáveis por aplicativos, como agendamentos em hospitais e mapas que indicam o quão lotado está um local como um shopping. A lista de serviços do WeChat, incluindo uma série de serviços financeiros, é infinita. É possível mapear a rotina diária de um chinês pelo uso do WeChat. Seu efeito é viral, mas não pela variedade de opções que se pode fazer através do aplicativo, mas justamente pelo fato de ser tudo isso em um único aplicativo: um super app. (SACHS, 2019). O WeChat chinês é a maior prova de que a tecnologia transcende sua função original e começa a fazer parte da cultura. Pode-se dizer que a tecnologia está mudando a cultura, porque muda a forma como as pessoas lidam com o mundo. WeChat se tornou esta potência na China em pouco menos de 3 anos. No Brasil, os movimentos são um pouco mais lentos. Contudo, a Tencent, dona do WeChat, investiu 180 milhões de dólares na Nubank, fintech brasileira, com o objetivo de construir uma plataforma de finanças pessoais de serviço completo. (MANDL, 2018). Ao que parece, o super app, envolvendo os mais diversos serviços financeiros, não tardará a chegar no Brasil. 4. Desafios associados ao desenvolvimento de aplicações de inteligência artificial no ecossistema financeiro O emprego de novas tecnologias está associado a uma série de desafios, além de envolver dilemas éticos. No que toca ao desenvolvimento de soluções de inteligência artificial no ecossistema financeiro, as preocupações giram principalmente em torno da questão regulatória, da segurança de dados, dos impactos organizacionais, da interação com novas tecnologias, além da necessidade de expertise e pessoal para implantar as soluções. O Relatório do Fórum Econômico Mundial (2018) traz como um dos principais desafios justamente a transformação dos talentos, a qual é fundamental para a velocidade na implantação de inteligência artificial nas instituições financeiras. Aliás, o desafio ligado às pessoas pode ser visto a partir de diferentes perspectivas. A primeira delas é a de que os avanços de inteligência artificial eliminarão completamente algumas posições de trabalho, já que as máquinas estão realizando atividades que eram exclusivas dos seres humanos. Por outro lado, outras posições de trabalho surgirão.[12] A segunda perspectiva é a de que, na maioria dos casos, os funcionários existentes não estão preparados para esta nova configuração do ecossistema financeiro, não possuindo habilidades para lidar com as soluções tecnológicas. Em razão disso, estudos apontam que um dos maiores desafios é encontrar o talento certo. Um líder para o desenvolvimento de soluções de inteligência artificial não é usualmente encontrado dentro da organização, exigindo contratações externas. (MAROUS, 2017a). Esse desafio, contudo, é mais direcionado aos bancos do que às fintechs, já que nestas sempre há alguém mais ligado com desenvolvimento de tecnologias. Talvez falte expertise sobre mercado financeiro. Ou não, já que os 80 mil ex-bancários existentes no Brasil hoje podem em parte ser absorvidos pelo mercado fintech.[13] Outro desafio voltado mais para os bancos tradicionais é o dos impactos organizacionais. A sobrevivência competitiva dos bancos no ecossistema financeiro já depende e dependerá cada vez mais de soluções de inteligência artificial e de outras tecnologias. Sem elas os bancos não conseguirão competir com serviços e produtos mais personalizados e mais baratos oferecidos pelas fintechs. Além disso, os bancos atualmente possuem uma distribuição física de agências que já se pode considerar como algo do passado (REED, 2016). A Folha noticiou em 2016 que a “agência bancária do futuro será mais cafeteria do que banco” (BRANT, 2016). Será necessário um repensar sobre a estrutura e custo operacional. A colaboração entre players deste ecossistema, inexistente até pouco tempo, também será fundamental para as instituições que pretendem prosperar. Os bancos, tradicionalmente, trabalham numa arquitetura fechada, ou seja, só oferecem produtos ou serviços com a sua bandeira. Para se manter em um mercado muito mais competitivo, precisarão trabalhar com a arquitetura aberta, oferecendo acesso aos produtos e serviços de outros players do mercado aos seus clientes. O Relatório do Fórum Econômico Mundial (2018) afirma que ferramentas colaborativas de inteligência artificial, construídas com base em dados compartilhados, podem permitir um sistema financeiro mais seguro e eficiente. Também se apresenta como desafio a interação de novas tecnologias. Isso porque a inteligência artificial não é suficiente para estruturação dos diferentes caminhos que podem ser utilizados pelas instituições financeiras. Há uma convergência tecnológica que deve ser considerada. Ou seja, as capacidades das inteligências artificiais estão interligadas com o desenvolvimento de outras tecnologias. A tecnologia blockchain é uma delas, a qualoferece uma forma de registro de operações muito mais segura. Os registros distribuídos e compartilhados garantem sua imutabilidade, permitindo transações com moedas digitais, celebração de contratos inteligentes, etc. A internet das coisas – IoT também se revela importante, já que permite a integração dos sistemas bancários com as coisas conectadas na internet, como os assistentes virtuais, os wearables, e os já fartamente utilizados smartphones e tablets. A computação quântica permitirá a existência de computadores com potência e velocidade de processamento suficientes para suportar inteligências artificiais cada vez mais fortes. O Relatório do Fórum Econômico Mundial (2018) deixa muito claro que as tecnologias não podem ser entendidas de forma isolada, porque elas se alimentam umas das outras, ou melhor, interagem, se combinam e retroalimentam umas às outras. É da interconexão das tecnologias que novas soluções e produtos mais interessantes são desenvolvidos, seja no ecossistema financeiro ou em outros. Um dos desafios mais significativos ao implemento de soluções de inteligência artificial é o da segurança dos dados. Os serviços atualmente oferecidos, especialmente por empresas que trabalham com novas tecnologias, têm como uma de suas características a constante coleta de dados pessoais dos usuários. Todas as informações vão sendo inseridas em um banco de dados cada vez mais completo sobre as pessoas. Além disso, tais dados têm um valor econômico significativo, afinal definem tendências de consumo, políticas, comportamentais, etc., e permitem que as empresas direcionem suas estratégias de acordo com tais tendências. Não só empresas como governos acabam tendo acesso a muitos dados pessoais. Os agentes que tratam dados de terceiros devem adotar medidas de segurança, técnicas e administrativas, aptas a proteger os dados pessoais, garantindo a segurança da informação. Aliás, os dados coletados, armazenados e transacionados na rede são os grandes responsáveis pelo atual auge das aplicações de inteligência artificial. As pesquisas sobre inteligência artificial iniciaram nos anos de 1960. Nos anos de 1980, John Hopfield e David Rumelhart popularizaram a técnica da aprendizagem profunda (Deep Learning), um ramo do chamado aprendizado de máquinas (Machine Learning). (WEFORUM, 2018). Contudo, uma inteligência artificial sem dados, sem informações, não atinge suas potencialidades. O momento da inteligência artificial é agora justamente porque nunca existiram tantos dados, nunca foi tão barato armazená-los, assim como nunca foi tão fácil deles gerar outros. A rede é uma fonte incessante de dados, através dos celulares, wearables, redes sociais, coisas conectadas à internet, análises comportamentais, cadastros, etc. Estatísticas demonstram que os dados produzidos de 2013 para cá representam 90% de todas as informações existentes na internet. (HEKIMA, 2017). Diante de toda esta abundância, paira o risco de os dados coletados e armazenados serem utilizados de forma indevida, o que se tornou realidade com o vazamento dos dados de 87 milhões de usuários do Facebook para a empresa de marketing político Cambridge Analytica, que atuou na campanha de Donald Trump. O escândalo foi necessário para que as autoridades entendessem a importância da regulamentação da proteção dos dados pessoais. Em 2018 entrou em vigor o Regulamento Geral de Proteção de Dados – RGPD na União Europeia[14]. Menos de dois meses depois da entrada em vigor do RGPD, o Congresso Nacional brasileiro aprovou a Lei Geral de Proteção de Dados – Lei 13.709/2018. Tanto o RGPD quanto a LGPD estabelecem as regras sobre como as empresas e órgãos públicos podem tratar dados pessoais – aí compreendida a coleta, o armazenamento, o compartilhamento, a venda, etc. – de modo que não se caracterize a violação de direitos fundamentais dos titulares. Imagine-se a concentração de dados que o WeChat chinês possui. E lá, não há dúvidas de que o governo utiliza os mesmos para controlar os movimentos dos cidadãos. A importância das leis de proteção de dados é imensa, de modo especial para o foco do presente artigo, considerando-se o tráfego dos dados pessoais por instituições oficiais tais como bancos, públicos e privados. Portanto, não restam dúvidas de que as instituições financeiras deverão adequar-se às regras legais de tratamento de dados. Os programas de compliance de proteção de dados são altamente recomendados para tal adequação, o que, aliás, poderá ser feito através dos serviços de inteligência jurídica oferecidos por uma legaltech. Ponto importante é o de que os dados somente podem ser tratados se houver um fundamento legal. O fundamento base é o consentimento, livre, informado e inequívoco do titular dos dados. Mas a questão está em quem e como os dados em rede podem ser tratados. Inteligências artificiais podem tratar os dados contidos na rede? Tanto a Lei Geral de Proteção de Dados brasileira[15], como o Regulamento de Proteção de Dados da União Europeia adotam como fundamento legal para o tratamento de dados o legítimo interesse. O legítimo interesse se manifesta quando for necessário para atender aos interesses legítimos do responsável ou de terceiros. Claro que o conceito de legítimo interesse é indeterminado e quem deverá determinar o seu conteúdo é a Autoridade Nacional de Proteção de Dados[16]. Ronaldo Lemos (2018) entende que esta hipótese legal é extremamente positiva, porque permite a inovação; o avanço tecnológico. O outro fundamento que a lei traz para o tratamento de dados é a proteção do crédito. Esse fundamento não se confunde com o consentimento do titular. O ponto nebuloso, nesse caso, é justamente como harmonizar os dois fundamentos, quais são os limites que devem ser observados para que se admita ou não o tratamento de dados nesta hipótese. Não há, por enquanto, como dar sentido aos conceitos indeterminados ou ter clareza sobre os pontos nebulosos. Afinal, a LGPD no Brasil foi publicada em 2018, mas ainda está em vacância, ou seja, ainda não entrou em vigor. Ademais disso, a interpretação da lei cabe à Autoridade Nacional, órgão também recentemente criado. Por fim, importante ainda trazer a ressalva de que as aplicações de inteligência artificial no ecossistema financeiro, como se pode perceber ao longo deste artigo, estão cada vez mais estruturadas a partir de decisões automatizadas. Decisões como as de concessão de empréstimo, compra e venda de ativos para investimento, definição de credit score são exemplos de decisões automatizadas, t omadas por algoritmos inteligentes. O RGPD, no seu artigo 22(1), determina que o titular dos dados tem o direito de não estar sujeito a uma decisão baseada apenas no processamento automatizado de dados. Mas, no artigo 22(2a), a regra vem excepcionada permitindo a decisão automatizada se ela for necessária para a execução de um contrato entre o titular dos dados e o controlador.[17] Conforme Maja Brkan (2017) essa “isenção do contrato” permitirá as decisões automatizadas no domínio das instituições financeiras. Já a LGPD brasileira admite, no artigo 20[18], as decisões tomadas unicamente com base no tratamento automatizado de dados pessoais. Contudo estabelece que o titular tem o direito de solicitar uma revisão das decisões automatizadas. A dificuldade que se põe neste caso é a quantidade de decisões automatizadas que são diuturnamente tomadas. A questão seria: que tipo de decisão automatizada geraria efetivamente o direito de solicitar a revisão. Ressalte-se ainda que no texto original da LGPD esta revisão deveria ser realizada por uma pessoa natural. Mas a Medida Provisória nº 869/2018 que criou a Autoridade Nacional também foi responsável por algumas alterações no texto da lei, dentre elas a supressão da necessidade de a revisão ser procedida por uma pessoa natural. Nesse ponto, surge outro questionamento: a revisão de uma decisão automatizada será realizada por outra decisão automatizada? Ao que tudo indica, isso será possível. Os algoritmos estão, realmente, cada vez mais, norteandoo curso da vida das pessoas. A LGPD também estabelece que o indivíduo tem o direito de obter do responsável pelo tratamento de dados informações claras e adequadas a respeito da tomada de decisões automatizadas, antes ou depois do tratamento, assim como tem o direto de acessar os critérios e as informações utilizadas para a tomada de decisões. Essas prerrogativas geram o que a doutrina convencionou chamar de direito de explicabilidade. A dificuldade que se agrega é: como uma instituição financeira que usa uma inteligência artificial para decidir sobre a concessão ou não de um empréstimo, por exemplo, irá explicar como o seu algoritmo tomou aquela decisão? O direito de obter uma explicação relaciona-se com o princípio da transparência que deve ser aplicado no caso de tratamento de dados pessoais. Contudo, existem vários obstáculos que se colocam para que se garanta uma explicação significativa da lógica por trás de decisões algorítmicas. Um dos obstáculos é a necessidade de compatibilização do direito de explicação e transparência com a proteção da propriedade intelectual. (BRKAN, 2017). A lei brasileira busca resolver esta questão determinando que em caso de não fornecimento de informações, com base em segredos comerciais ou industriais, a autoridade nacional poderá realizar auditoria para verificação de aspectos discriminatórios em tratamento automatizado de dados pessoais. O segundo obstáculo é técnico. Um algoritmo inteligente é complexo. Há uma opacidade em relação as decisões tomadas pelos algoritmos estruturados através do big data e das técnicas de aprendizado das máquinas. Muitos autores sugerem que, nestes casos, seria quase impossível explicar a lógica por traz da tomada da decisão. (BRAKAN, 2017). É bem de ver que as questões que envolvem novas tecnologias, de modo especial a inteligência artificial, implicam em um cenário cada vez mais complexo. Nesse contexto, outro grande desafio que se apresenta é a questão regulatória. É ou não necessário regular o uso de inteligência artificial no ecossistema financeiro? Talvez seja necessário regular. Aliás, no Brasil, o setor financeiro é altamente regulado. Mas, por vezes, a regulamentação excessiva e normalmente de difícil compreensão, como é o caso de muitas das regras emitidas pelo Conselho Monetário Nacional – CMN e pela Comissão de Valores Mobiliários – CVM, pode também ser um complicador. Contudo, como explicita Eduardo Magrani (2018) as teorias jurídicas hoje existentes talvez não consigam dar conta dos dilemas que deverão ser enfrentados pelo uso de novas tecnologias e de modo especial por algoritmos e por inteligências artificiais cada vez mais fortes. Nessa medida, defende o professor que, para além da questão regulatória, ou seja, exigir-se uma atuação legislativa para fazer frente a estas questões, talvez o mais importante seja a necessidade de o Direito se reinterpretar como metarregulação, ou seja, uma regulação não legislativa, que atua antes; que atua na esfera do design ou da arquitetura das coisas. Em última análise, é necessário pensar em um design sensível a valores, ou seja, é necessário garantir valores na técnica. Portanto, o fundamental nesse cenário é buscar construir soluções estruturadas em inteligências artificiais que respeitem critérios éticos (ethics by design); que respeite a privacidade dos envolvidos (privacy by design), bem como garanta a segurança na sua utilização (security by design). O que se pretende, com isso, é a garantia de valores meta-jurídicos; valores éticos essenciais para o respeito aos direitos humanos. 5. Conclusão: tecno-futuro mais democrático no ecossistema financeiro? A inteligência artificial já não faz mais parte apenas do imaginário popular, tampouco é coisa do futuro. A grande preocupação não está na sua existência, mas nos seus impactos nos próximos 10, 20 ou 30 anos. A verdade é que ainda não há como dimensionar os efeitos decorrentes do uso de inteligências artificiais. Os céticos e pessimistas preveem o apocalipse. Mas cumpre à própria humanidade pensar de forma positiva e propositiva, definindo os contornos que se pretende dar aos eventuais e atualmente incertos efeitos. É imprescindível refletir sobre as aplicações de inteligência artificial e direcionar o seu uso para o bem, criar as bases para que funcione como mecanismos de inclusão e que respeite direitos fundamentais como a privacidade, garanta a segurança de dados pessoais e seja construída a partir de valores éticos. O ecossistema financeiro passa por uma revolução, está submetido a uma nova física como se afirmou no Fórum Econômico Mundial. O ingresso das fintechs nesse vetusto e concentrado mercado traz a dinâmica competitiva que era necessária e injeta criatividade para criação de soluções inovadoras e muito mais amigáveis. O resultado são serviços mais seguros, mais variados, com menor custo e maior agilidade. A melhoria na experiência do usuário será significativa. Essa dinâmica competitiva e inovadora, a qual implica em novas formas de oferecimento dos serviços financeiros, também provoca um outro efeito muito significativo: a desintermediação, o que pode trazer como benefício a diminuição dos custos de transação e, quiçá, mais eficiência. Para além da reinvenção que se impõe, existem fintechs direcionadas exclusivamente para o público que não era foco de interesse dos bancos tradicionais. Algumas são voltadas exclusivamente para o oferecimento de soluções facilitadas para quem não tem o conhecimento necessário, como o caso das investechs e seus robôs investidores, outras direcionadas apenas para atender micro e pequenos empresários, as vezes também carentes de informações e conhecimentos mais específicos, sem falar nas chamadas fintechs sociais que, por exemplo, viabilizam sistema de pagamento através do uso de smartphones para pessoas que sequer tem conta em banco e, portanto, não tinham até então acesso à serviços financeiros. O Brasil possui hoje uma população de cinquenta e cinco milhões de desbancarizados, muitos dos quais serão incluídos em um ecossistema financeiro que se desenha prometendo um tecno-futuro muito mais democrático. Para além de mais democrático, não se pode perder de vista que o tecnofuturo precisa ser construído a partir de bases sólidas, com soluções arquitetadas a partir do respeito aos valores meta-jurídicos; a partir de um design sensível a valores. Afinal, a vida das pessoas está cada vez mais regulada por arquiteturas tecnológicas; a tecnologia integra transforma a cultura das nações. Referências bibliográficas BRANT, Danielle. Agência bancária do futuro será mais cafeteria do que banco, prevê empresa. Folha Digital. Out., 2016. Disponível em: https://www1.folha.uol.com.br/mercado/2016/10/1825548-agencia-do-futuro- sera-mais-cafeteria-do-que-banco-preve-gigante-do-setor.shtml, acesso em 27 jan., 2019. BRKAN, Maja. AI-Supported Decision-making under the General Data Protection Regulation. London/UK: Proceedings of ICAIL’17. Jun. 2017 Disponível em: https://doi.org/10.1145/3086512.3086513, acesso em 28 jan., 2019. Brasil recupera el liderazgo Fintech en América Latina y supera la barrera de las 370 startups. Finnovista Fintech Radar. Jun., 2018. Disponível em: https://www.finnovista.com/actualizacion-fintech-radar-brasil-2018/, acesso em 25 jan. 2019. ČERKAA, Paulius; GRIGIENĖA, Jurgita; SIRBIKYTĖB, Gintarė. Liability for damages caused by artificial intelligence. Computer Law & Security Review. Vol 31. No.3. Jun., 2015. CIRIACO, Douglas. O que é P2P? ago., 2008. Disponível em: https://www.tecmundo.com.br/torrent/192-o-que-e-p2p-.htm, acesso em 26 de jan., 2019. CROSMAN, Penny. Is AI making credit scores better, or more confusing? American Banker. Fev., 2017. Disponível em: https://www.americanbanker.com/news/is-ai-making-credit-scores-better-or- more-confusing, aceso em 26 jan., 2019. DAVIES, Colin R. An evolutionary step in intellectual property rights: Artificial Intelligence and Intellectual Property. Computer Law & Security Review. Vol 27. p. 601-619.Dec., 2011. Fintech Trends: tendências e desafios para o mercado fintech brasileiro. Conexão Fintech. 2017. Disponível em: http://conexaofintech.com.br/news/wp- content/uploads/report_tendencias_fintech_Brasil_2017_Conexao_Fintech.pdf, acesso em 27 jan., 2019. HEKIMA. Big Data e Inteligência Artificial: números e estatísticas impressionantes. Big Data Business. Fev., 2017. Disponível em: http://www.bigdatabusiness.com.br/os-grandes-e-impressioantes-numeros-de- big-data/, acesso em 28 jan., 2019. Gartner Customer 360 Summit 2011. Disponível em: https://www.gartner.com/imagesrv/summits/docs/na/customer- 360/C360_2011_brochure_FINAL.pdf, acesso em 26 jan., 2019. KOCIANSKI, Sarah; DYKE, Dan Van. AI IN BANKING AND PAYMENTS: How artificial intelligence can cut costs, build loyalty, and enhance security for financial institutions. Business Insider – BI Intelligence . Feb., 2018. Disponível em: https://www.businessinsider.com/ai-in-banking-and-payments-report-2018-2, acesso em 27 já., 2019. LEMOS, Ronaldo; DOUEK, Daniel. ADAMI, Mateus Piva; LANGENEGGER, Natalia; FRANCO, Sofia Lima. A criação da Autoridade Nacional de Proteção de Dados pela MP nº 869/2018. Jota. Dez. 2018. Disponível em: https://www.jota.info/opiniao-e- analise/artigos/a-criacao-da-autoridade-nacional-de-protecao-de-dados-pela- mp-no-869-2018-29122018, acesso em 29 jan., 2019. LEMOS, Ronaldo; MAGRANI, Eduardo. GDPR e LGPD e aplicações de inteligência artificial e algoritmos. ITS Rio. Set. 2018. Curso “A Nova Lei Geral de Proteção de Dados” ministrado on line. MAGRANI, Eduardo. Inteligência Artificial: o que é e como ela pode afetar sua vida. ITS Rio. Abr. 2018. Curso “Inteligência artificia: (r)evolução na prática” ministrado on line. MANDL, Carolina. China’s Tencent invests $180 million in Brasil fintech Nubank. REUTERS. Out., 2018. Disponível em: https://www.reuters.com/article/us- tencent-holdings-nubank-m-a/chinas-tencent-invests-180-million-in-brazil- fintech-nubank-idUSKCN1MI20L, acesso em 15 fev., 2019. MAROUS, Jim. How Financial Institutions are Turning AI into ROI. Set., 2017a. The Financial Brand. Disponível em: https://thefinancialbrand.com/67498/artificial- intelligence-ai-banking-trends/, acesso em 26 jan. 2019. ______. Competitive Survival in Banking Hinges on Artificial Intelligence. Out., 2017b. The Financial Brand. Disponível em: https://thefinancialbrand.com/67890/ai-banking-research-deployment-trends/, acesso em 26 jan. 2019. MEOLA, Andrew. Robo-advisors have a $2 trillion opportunity in front of them. Business Insider – BI Intelligence. Jun., 2016. Disponível em: https://www.businessinsider.com/robo-advisors-have-a-2-trillion-opportunity- in-front-of-them-2016-6, acesso em 26 já., 2019. NG, Andrew. Artificial Intelligence is the New Electricity. Synced Review. Abr., 2017. Disponível em: https://medium.com/syncedreview/artificial-intelligence-is- the-new-electricity-andrewng-cc132ea6264, acesso em 25 jan. 2019b. Olá, sou o Ueslei, o robô que cuida dos seus investimentos. Vérios Blog. Abr., 2017. Disponível em: https://verios.com.br/blog/ola-sou-o-ueslei-o-robo-que- cuida-dos-seus-investimentos/, acesso em 26 jan., 2019. REED, Jeff. FinTech Financial Technology and Modern Finance in the 21st Century. Kindle Edition, 2016. SACHS, Lais. Fintechs: China e Brasil. ITS Rio. Fev., 2019. Curso “Radar ITS 2019: tendências para a Internet” ministrado on line. SCHWAB, Klaus. A quarta revolução industrial. Traduzido por Daniel Moreira Miranda. São Paulo: Edipro, 2016. STIVANI, Mirella. Os dez tipos de phishing mais comuns. Techtudo. Jun. 2018. Disponível em: https://www.techtudo.com.br/listas/2018/06/os-dez-tipos-de- phishing-mais-comuns.ghtml, acesso em 25 jan. 2019. TEIXEIRA JÚNIOR, Sérgio. O Alibaba no topo do mundo. Exame. Set., 2014. Disponível em: https://exame.abril.com.br/revista-exame/o-alibaba-no-topo-do- mundo/, acesso em 15 fev., 2019. The AI In Fintech Market Map: 100+ Companies Using AI Algorithms to Improve the Fin Services Industry. CB Insights. Mar. 2017. Disponível em: https://www.cbinsights.com/research/ai-fintech-startup-market-map/, acesso em 25 jan. 2019. The Bank os the Future: The ABCs of Digital Disruption in Finance. Citi GPS. Mar., 2018. Disponível em: https://ir.citi.com/CiDxU7p7pAittTmqzfMCS9%2F91IS21vIjJXbn3wjpSEYiTXJ8FvEPRWx8WmmrKNgBSzDi8E2mGOI%3D, acesso em 25 jan. 2019. The New Physics of Financial Services. World Economic Forum. Ago. 2018. Disponível em: http://www3.weforum.org/docs/WEF_New_Physics_of_Financial_Services.pdf, acesso em 25 jan. 2019. 1. Advogada. Doutoranda em Direito pela UNISINOS. Mestre em Direito pela PUCRS. LLM em Direito Empresarial pelo CEU Law School. Professora de Direito Empresarial e de Direito da Propriedade Intelectual da UNISINOS e da ESMAFE – Escola Superior da Magistratura Federal. Pesquisadora do Grupo Inteligência Artificial e Inclusão do ITS RIO - 2018. E-mail: fernandaborghetti@hotmail.com ↵ 2. A primeira mudança profunda na maneira de viver se deu com a revolução agrícola, quando o homem deixou de ser um mero catador e começou a produzir os seus alimentos, dominando a agricultura. Esta revolução, que ocorreu a cerca de 10.000 anos, foi seguida por uma série de revoluções industriais, iniciadas na segunda metade do século XVIII. A primeira revolução industrial foi provocada pela construção de ferrovias e pela invenção da máquina a vapor. Foi aquela que deu início a produção mecânica. A partir do final do século XIX, com o advento da eletricidade e da linha de montagem, possibilitou-se a produção em massa, o que caracterizou a segunda revolução industrial. A terceira revolução industrial teve início na década de 60 e foi chamada de revolução digital. Esta foi impulsionada pelo desenvolvimento dos semicondutores, da computação em mainframe (1960), da computação pessoal (1970/80) e da internet (1990). Para aprofundamento e análise dos impulsionares e impactos da quarta revolução industrial ver a obra “A quarta revolução industrial” de Klaus Schwab. ↵ 3. “El sistema bancario de Brasil es conocido como uno de los más burocráticos del mundo, con los cinco mayores bancos del país, Itáu Unibanco, Banco Santander, Banco Bradesco, Banco do Brasil y Caixa Econômica, en posesión del 80% de cuota de mercado en el negocio de crédito”. (FINNOVISTA FINTECH RADAR, 2018). Importante dizer que a concentração bancária não é uma particularidade brasileira. A China, por exemplo, é outro mercado que, muito impactado pelas fintechs, também é exemplo de concentração bancária. Quatro bancos concentravam o mercado financeiro chinês. (SACHS, 2019). ↵ 4. Os números brasileiros são significativos, mas incomparáveis com a líder mundial do mercado fintech: a China. Entre 2015 e 2016, momento de surgimento das fintechs no país, a China contou com 8 bilhões de dólares em investimentos no setor. Três foram os principais fatores para o surgimento das fintechs na China: incentivos governamentais de estímulo a crédito durante a crise de 2008, dezenas de milhões de pessoas sem acesso a serviços financeiros formais e grande insatisfação com as ofertas de serviços bancários provenientes dos grandes bancos. Um exemplo de transformação dos serviços financeiros na China é a empresa Ant Financial que, desde 2014, opera todos os serviços financeiros ligados ao grupo Alibaba, o maior intermediário varejista chinês, como a americana Amazon. O Alibaba, em 2014, já era o responsável por 80% das vendas online na China e esse percentual foi atingido quando desenvolvido o serviço de pagamento: o Alipay, o qual resolveu um problema de confiança, já que o repasse do dinheiro aos vendedores somente ocorre após a confirmação da operação pelo comprador. O Alipay é a empresa líder mundial de pagamentos online, contando com 520 milhões de usuários. O importante é que o Alipay não viabiliza apenas a compra de produtos em um mercado online, viabiliza o pagamento de ambulantes, de hotéis, de supermercados, de bicicletas compartilhadas, de passagem no metrô, dentre outras possibilidades, simplesmenteescanceando um QR Code pelo telefone celular. Isso é possível pela penetração da internet e dos smartfones na China. Cerca de 556 milhões de pessoas acessam a internet por meio dos seus telefones. (SACHS, 2019). Aliás, o Grupo Alibaba tem a Aliexpress no Brasil, empresa que gera desconforto, por exemplo, para o Mercado Livre. A operação no Brasil é interessante, também é um mercado relevante em população. Mas, independentemente da operação local, é certo que a internet reduz fronteiras: o próprio Alibaba tem 2 milhões de clientes brasileiros cadastrados. (TEIXEIRA JÚNIOR, 2014). ↵ 5. A inteligência artificial pode ser fraca ou forte. A fraca é aquela que só consegue fazer aquilo para o que foi programada; já a forte consegue assimilar conteúdos, é versátil na interpretação e tratamento das informações. (MAGRANI, 2018). Tal distinção tem relação até mesmo com as diferentes gerações de computadores. Os antigos não tinham capacidade de aprendizado, todas as informações, conclusões e resultados possíveis precisavam ser inseridas na máquina pelo programador. Hoje em dia, um computador pode exercer atividades tal como o cérebro humano. Recebe informações de diversas fontes, de outros computadores, de outros sistemas de IA, para além das informações que possuía ao tempo de sua programação. Da junção de todas as informações e dados recebidos, chega à suas próprias conclusões. (DAVIES, 2011). O Deep Blue, o sistema de inteligência artificial que venceu Kasparov, o melhor jogador de xadrez do mundo, embora muito avançado, é um exemplo de IA fraca. Ele não consegue jogar dama, só consegue avaliar todas as possibilidades do xadrez. Só consegue fazer aquilo para o que foi programado. O Go – jogo de tabuleiro Chinês – é muito mais complexo que o xadrez, porque possui um número infinito de jogadas. O AlphaGo, sistema de IA da Google, derrotou Ke Jie, o melhor jogador de Go do mundo. Depois disso, o Google criou outra IA que apreendeu a jogar sozinha, e derrotou o próprio AlphaGo. Esses são exemplos de IA forte, assim como o Watson da IBM. IA consegue até mesmo blefar jogando Poker. (MAGRANI, 2018). A IA forte, estruturadas pela técnica da aprendizagem profunda (Deep Learning), um ramo do chamado aprendizado de máquinas (Machine Learning), irá levar a humanidade para um nível de desenvolvimento jamais visto por que estão cada vez mais autônomas e imprevisíveis. Os sistemas de IA hoje são capazes de aprender; de treinar a si próprios através do acúmulo de experiências anteriores próprias e de outros agentes, chegando as suas próprias conclusões de forma absolutamente imprevisível. (ČERKAA; GRIGIENĖA; SIRBIKYTĖB, 2015). ↵ 6. P2P (do inglês peer-to-peer, que significa par-a-par) é uma arquitetura de redes de computadores em que cada um dos pontos ou nós da rede funciona tanto como cliente quanto como servidor, permitindo compartilhamentos de serviços e dados sem a necessidade de um servidor central. Em outras palavras, é um formato de rede de computadores em que a principal característica é descentralização das funções convencionais de rede, em que o computador de cada usuário conectado acaba por realizar funções de servidor e de cliente ao mesmo tempo. (CIRIACO, 2018). ↵ 7. Falsos positivos são alarmes falsos. Por exemplo, quando o antivírus acusa que arquivos ou programas estão infectados quando na verdade não estão. Já um falso negativo seria aquela situação de realização de compra pela internet que, na finalização, indica que o cartão utilizado é inválido. Esse tipo de aviso equivocado ocorre com menos frequência hoje porque os sistemas de detecção de fraude estão melhor desenvolvidos. ↵ 8. Phishing é uma prática criminosa implementada através da internet para que o usuário vítima revele informações pessoais, como senhas ou cartão de crédito, CPF e número de contas bancárias. A prática ocorre através de envio de e-mails falsos ou direcionamento para websites falsos. Para saber mais, vide: https://www.techtudo.com.br/listas/2018/06/os-dez-tipos-de- phishing-mais-comuns.ghtml. ↵ 9. “There are two main reasons to use artificial intelligence to derive a credit score. One is to assess creditworthiness more precisely. The other is to be able to consider people who might not have been able to get a credit score in the past, or who may have been too hastily rejected by a traditional logistic regression-based score. In other words, a method that looks at certain data points from consumers’ credit history to calculate the odds that they will repay.” (CROSMAN, 2017) ↵ 10. Bots, termo diminutivo de Robot, são robôs digitais que, imitando comportamentos humanos, vem sendo utilizados na web para as mais diversas tarefas. Os mais comuns são os Chatbots, que são programas de computadores programados para funcionarem como atendentes e responderem perguntas formuladas pelas pessoas na rede. Para entender melhor sobre o que são os bots e como eles podem nos influenciar, vide: https://feed.itsrio.org/tagged/bots. ↵ 11. Para conhecer um pouco mais sobre o super app, vide documentário sobre o tema: WeChat the Chinese Super App. Disponível em: https://www.youtube.com/watch?v=Qtm3V74HCzc. ↵ 12. A questão da IA e o futuro das profissões foi objeto de pesquisa do McKinsey Global Institute no ano de 2017, resultando em um report muito interessante intitulado: Jobs lost, jobs gained: What the future of work will mean for jobs, skills, and wages. Disponível em: https://www.mckinsey.com/featured-insights/future-of- work/jobs-lost-jobs-gained-what-the-future-of-work-will-mean- for-jobs-skills-and-wages, acesso em 29 jan., 2019. ↵ 13. Esse é um dado e uma opinião pessoal de Paulo Rogério Silva, ex- superintendente do Santander e ex-diretor de marketing, distribuição e estratégia de segmentos para América Latina do HSBC e do Citibank, em palestra proferida na Unisinos/RS em 2018 sobre tendências no varejo financeiro brasileiro. ↵ 14. Também conhecido pela sigla GDPR - General Data Protection Regulation. Para aprofundamento, vide o Manual da legislação Europeia sobre proteção de Dados, disponível no link: https://www.echr.coe.int/Documents/Handbook_data_protection_POR.pdf ↵ 15. Art. 7º, LGPD: O tratamento de dados pessoais somente poderá ser realizado nas seguintes hipóteses: I - mediante o fornecimento de consentimento pelo titular; II - para o cumprimento de obrigação legal ou regulatória pelo controlador; III - pela administração pública, para o tratamento e uso compartilhado de dados necessários à execução de políticas públicas previstas em leis e regulamentos ou respaldadas em contratos, convênios ou instrumentos congêneres, observadas as disposições do Capítulo IV desta Lei; IV - para a realização de estudos por órgão de pesquisa, garantida, sempre que possível, a anonimização dos dados pessoais; V - quando necessário para a execução de contrato ou de procedimentos preliminares relacionados a contrato do qual seja parte o titular, a pedido do titular dos dados; VI - para o exercício regular de direitos em processo judicial, administrativo ou arbitral, esse último nos termos da Lei de Arbitragem; VII - para a proteção da vida ou da incolumidade física do titular ou de terceiro; VIII - para a tutela da saúde, em procedimento realizado por profissionais da área da saúde ou por entidades sanitárias; IX - quando necessário para atender aos interesses legítimos do controlador ou de terceiros, exceto no caso de prevalecerem direitos e liberdades fundamentais do titular que exijam a proteção dos dados pessoais; ou X - para a proteção do crédito, inclusive quanto ao disposto na legislação pertinente. (grifado). ↵ 16. A ANPD – Autoridade Nacional de Proteção de Dados foi criada pela Medida Provisória nº 869/2018 e será um órgão da administração pública direta; integrante da Presidência da República. A LGPD, na sua parte vetada, submetia a ANPD à regime autárquico especial e vinculado ao Ministério da Justiça. A celeuma sobre a ANPD não termina. Incialmente sua criação foi objeto de veto e, agora, na sua efetiva criação foi vinculadaà Presidência da República, o que pode ser um prejuízo a sua independência, embora se assegure sua autonomia técnica. (LEMOS, et. al., 2018) ↵ 17. Art. 22 GDPR. Automated individual decision-making, including profiling. 1. The data subject shall have the right not to be subject to a decision based solely on automated processing, including profiling, which produces legal effects concerning him or her or similarly significantly affects him or her. 2. Paragraph 1 shall not apply if the decision: (a) is necessary for entering into, or performance of, a contract between the data subject and a data controller; (b) is authorised by Union or Member State law to which the controller is subject and which also lays down suitable measures to safeguard the data subject’s rights and freedoms and legitimate interests; or (c) is based on the data subject’s explicit consent. 3. In the cases referred to in points (a) and (c) of paragraph 2, the data controller shall implement suitable measures to safeguard the data subject’s rights and freedoms and legitimate interests, at least the right to obtain human intervention on the part of the controller, to express his or her point of view and to contest the decision. 4. Decisions referred to in paragraph 2 shall not be based on special categories of personal data referred to in Article 9(1), unless point (a) or (g) of Article 9(2) applies and suitable measures to safeguard the data subject’s rights and freedoms and legitimate interests are in place. (grifado) ↵ 18. Art. 20. O titular dos dados tem direito a solicitar a revisão de decisões tomadas unicamente com base em tratamento automatizado de dados pessoais que afetem seus interesses, incluídas as decisões destinadas a definir o seu perfil pessoal, profissional, de consumo e de crédito ou os aspectos de sua personalidade. § 1º O controlador deverá fornecer, sempre que solicitadas, informações claras e adequadas a respeito dos critérios e dos procedimentos utilizados para a decisão automatizada, observados os segredos comercial e industrial. § 2º Em caso de não oferecimento de informações de que trata o § 1º deste artigo baseado na observância de segredo comercial e industrial, a autoridade nacional poderá realizar auditoria para verificação de aspectos discriminatórios em tratamento automatizado de dados pessoais. (grifado) ↵ 6. Inteligência artificial, self-driving cars, e suas consequências jurídicas em caso de acidentes Gregório Soria Henriques[1] 1. O que são “self-driving cars”? Conforme definido pela National Highway Traffic Safety Administration – NHTSA, agência federal de transporte americana, veículos autônomos são aqueles em que pelo menos algumas das funções críticas de segurança (e.g. direção, aceleração, ou frenagem) ocorrem sem qualquer interação do motorista[2]. Assim, um “self-driving car” (ou carro autônomo) é um veículo que é capaz de escanear o seu ambiente e navegar sem comandos humanos. Esses veículos utilizam tecnologias como radares, laser, GPS, visão computadorizada, etc., e, com base nas informações colhidas sobre o seu ambiente, um sistema avançado de controle identifica os melhores caminhos, além de identificar obstáculos e sinais relevantes. Portanto, para que um veículo seja considerado um carro autônomo, é necessário que o sistema tenha uma performance satisfatória na presença de incertezas no ambiente e seja capaz de compensar por falhas sistêmicas sem intervenção externa[3]. Com base nesse conceito, a National Highway Traffic Safety Administration – NHTSA publicou uma escala com cinco níveis diferentes, que variam de acordo com a automatização do sistema[4]: Nível 0: sem qualquer automação. O motorista tem o controle total e solitário dos controles primários do veículo (freios, direção, e aceleração) a todo tempo, além de ser o único responsável por monitorar a via e pela segura operação de todos os controles do veículo. Veículos que têm algum suporte ou sistemas de conveniência ao motorista, mas que não têm controle ou autoridade sobre os controles primários do veículo ainda são considerados Nível 0. Exemplos desse nível incluem sistemas que expeçam advertências, que tenham para-brisas e faróis automáticos, etc.; Nível 1: automação específica por função. A automação nesse nível envolve um ou mais dos controles primários do veículo. O motorista ainda tem controle total e é o único responsável pela segurança, mas ele pode escolher por ceder um controle primário (e.g. cruise control), ou o sistema autônomo pode auxiliar em determinadas situações de acidente iminente (e.g. auxílio de freio em emergências). O veículo de Nível 1 possui diversas tecnologias capazes de evitar um acidente, mas ele ainda não substitui a vigilância do motorista, nem retira a sua responsabilidade, já que ele apenas possui a função de auxiliar; Nível 2: automação de combinação de funções. Esse nível envolve a automação de, pelo menos, dois controles primários do veículo, trabalhando em conjunto para dispensar o motorista em relação a essas funções. Nesse caso, o motorista ainda é responsável pelo monitoramento da rodovia e pela segurança da operação, além de dever estar sempre à disposição, já que o sistema pode lhe devolver o controle total a qualquer momento e sem aviso; Nível 3: automação limitada. Veículos desse nível permitem que o motorista ceda controle total de todas as funções críticas de segurança em determinadas circunstâncias (e.g. trânsito). Nesse caso, o motorista deve estar disponível ocasionalmente para reassumir o controle, mas com tempo suficiente de transição; Nível 4: automação plena. O veículo é destinado para desenvolver todas as funções críticas de segurança e monitorar as condições da via durante toda a viagem. Esse veículo antecipa que o motorista irá providenciar a destinação ou a navegação, mas que não estará disponível durante nenhum momento. Esse nível inclui tanto veículos ocupados, como não ocupados. Ou seja, no Nível 4, nível máximo que pode ser atingido e que será adotado como o padrão nos termos deste trabalho, o sistema operacional de um carro autônomo funciona como um motorista, na medida em que ele tem que coletar informações sobre o ambiente ao seu redor, processá-las, e, com base nelas, tomar decisões; isso sem qualquer auxílio externo. É justamente essa tomada de decisões sem o auxílio humano que faz com que esse sistema operacional seja excepcional, distinguindo-se dos sistemas operacionais comuns, que são utilizados em computadores pessoais e similares, e mesmo em carros autônomos de níveis inferiores. Nestes, o usuário dá o comando e o computador o realiza sem ter que tomar qualquer decisão, ou o computador toma a decisão e realiza a tarefa que, mesmo assim, deve ser aprovada por um ser humano. Já nos carros autônomos de Nível 4, o programador apenas dá as diretrizes básicas que serão aplicadas pelo próprio sistema operacional de acordo com as suas próprias decisões. O sistema operacional “pensa”. Atualmente, a Google (Waymo[5]) e a Uber são duas das empresas que desenvolvem projetos de carros autônomos. 2. Benefícios dos “self-driving cars” Os “self-driving cars” trazem uma série de benefícios, como redução dos gastos com infraestrutura, melhoria na mobilidade urbana, dentre outros, mas não são todos que interessam ao foco deste trabalho. De fato, o foco é “inteligência artificial e inclusão” e, nesse contexto, o benefício mais importante trazido pelos carros autônomos é a inclusão de pessoas que, em relação a um carro comum, não conseguiam ou tinham mais dificuldade em utilizá-lo: portadores de deficiência, pessoas idosas, crianças etc. Isso se deve à possibilidade de estas pessoas terem mais independência na sua locomoção. Isso porque, mesmo com os diversos avanços tecnológicos que reduziram distâncias – como, por exemplo, a Internet e a possibilidade de cursos à distância não presenciais – a locomoção ainda continua a ser um aspecto importante da vida em sociedade. A locomoção ainda é importante para que pessoas consigam resolver seus problemascotidianos (ir ao banco, ir ao INSS), interagir com outras pessoas (ir a uma festa ou a algum evento social), e até mesmo relaxar, já que ficar em um ambiente confinado por longos períodos de tempo pode fazer mal à saúde mental e ter impactos negativos na saúde física e psíquica de indivíduos. Desse modo, mesmo que a tecnologia tenha facilitado a vida dessas pessoas, a locomoção ainda é um aspecto muito importante da vida humana. Em relação aos portadores de deficiência[6], a remoção do volante e o fato de os assentos não mais terem que “olhar para frente” proporcionaria maior espaço interno e maior mobilidade dentro do veículo, facilitando o posicionamento de cadeiras de rodas, por exemplo. Além disso, a visão do motorista não seria mais essencial à direção, já que a única visão necessária seria a do sistema, possibilitando que deficientes visuais não mais necessitassem que alguém dirigisse para eles, o que aumentaria a sua qualidade de vida e diminuiria os seus custos. Em caso semelhante, os deficientes auditivos. Por outro lado, pessoas idosas[7] e com locomoção reduzida, que já são beneficiadas pelo sistema de troca de marcha automático, seriam ainda mais beneficiadas, já que não teriam que fazer nenhum esforço. Crianças poderiam ser transportadas de modo seguro até suas escolas ou outros lugares, não mais dependendo que algum responsável as leve, o que reduziria a carga de trabalho de mães e pais solteiros, por exemplo. E, por fim, carros autônomos reduziriam os custos trabalhistas com motorista e os custos com seguro (já que o carro autônomo seria mais seguro, uma vez que não é tão falho como o ser humano), tornando o transporte mais barato, inclusive o público, e permitindo uma maior mobilidade urbana, que, no fim, acaba incluindo a todos. Enfim, a lista de benefícios trazidos pelos carros autônomos é extensa e, por não ser esse o objetivo deste trabalho, optou-se por fazer uma análise breve sobre eles. 3. A responsabilidade civil em caso de acidentes envolvendo carros autônomos a. Introdução Apesar de decisões tomadas por computadores serem eventualmente mais seguras do que as tomadas por humanos, computadores não são perfeitos ou infalíveis e, portanto, é plausível pensar que carros autônomos possam apresentar defeitos. Nesse contexto, é importante examinar a responsabilidade civil em caso de acidentes envolvendo carros autônomos: Quem é responsável quando se trata de carro autônomo de Nível 4? E nos Níveis 2 e 3? Enquanto a atual legislação e jurisprudência nacionais não tratam do assunto, cabe à doutrina, em especial a comparada, encontrar soluções para esses problemas que, com certeza, surgirão no futuro. b. O atual estágio de desenvolvimento dos carros autônomos Atualmente, a líder no desenvolvimento de carros autônomos é a Google, desenvolvendo um software para carros que já são produzidos, como Toyotas, Priuses, Audis e Lexus. Assim, não se trata de um veículo que é completamente autônomo, mas sim um sistema que transforma um carro em autônomo[8]. Esse sistema utiliza sensores e um software para detectar pedestres, ciclistas, outros veículos, obras etc., em uma distância de até 330 metros[9], num em um raio de 360º[10]. Após a detecção pelos sensores, o sistema[11] prevê o comportamento de cada um dos outros elementos na rodovia: isso é possível porque o sistema se baseia em 5 milhões de experiências reais para extrapolar um cenário que seja o mais compatível possível com a realidade. Um dos exemplos que a Google utiliza em seu site é o do ciclista que levanta o seu braço esquerdo; detectando o sinal, o software prevê que ele vá virar à esquerda e adequa o seu comportamento, reduzindo a sua velocidade e dando espaço para que o ciclista passe de modo seguro à frente do carro. Apesar de o plano da Google ser um carro completamente autônomo (Nível 4), o seu design atual, até por conta da presente legislação sobre o assunto, ainda requer um motorista atrás do volante (Nível 3). Desse modo, ocorrendo qualquer situação excepcional, o veículo pode acionar o motorista para que ele assuma o controle. Além disso, os carros se comunicam entre si, trocando informações entre eles e com o sistema central da Google, que coleta os dados de todos os carros autônomos, mantendo o sistema sempre atualizado. Isso é a base para o futuro dos carros autônomos: eles se tornarão cada vez mais seguros, na medida em que se comunicam entre si, e entre outros elementos na via (e.g. sinais de trânsito), o que reduziria a quase zero a falibilidade. c. Regulação Estrangeira Em relação aos carros autônomos e a sua regulamentação, o direito americano se torna o grande foco, na medida em que a maioria dos carros autônomos são produzidos lá. Desse modo, é importante fazer uma rápida análise da regulamentação em solo americano. A National Highway Traffic Safety Administration – NHTSA, atualmente, ainda estuda a tecnologia decorrente de carros autônomos e a sua possível regulação. Mas ela recomenda que os Estados não autorizem o uso público de carros autônomos enquanto isso[12]. NE, nesse contexto, vários Estados americanos têm optado por não aprovar, ainda, qualquer regulação até que se chegue a um consenso sobre a responsabilidade civil decorrente de dano causado pelo uso de carros autônomos. No entanto, os Estados de Nevada, Califórnia e Flórida (Estados nos quais os carros autônomos são testados na prática) já aprovaram leis regulamentando regulando os carros autônomos, sem, entretanto, permiti-los sem motoristas. Somente àa título de curiosidade, o Estado de Nevada inclusive já desenvolveu o formato e design da placa de carros autônomos[13], mas o Chapter 482-A, que disciplina a matéria, não traz qualquer previsão de responsabilidade civil, regulando apenas os testes dos veículos. A União Europeia, por outro lado, já tem proposta de regulamentação de atos independentes da inteligência artificial (Resolução 2015/2103 [INL], de 16 de fevereiro de 2017, com recomendações à Comissão de Direito Civil sobre Robótica) [14]. Essa resolução tem como objetivo tentar se adiantar ao próprio desenvolvimento tecnológico, para moldá-lo de forma a serem respeitados determinados princípios éticos. Nesse cenário, ela leva em consideração a possibilidade concreta de que, em um futuro bem próximo , a inteligência artificial vá além da inteligência humana. Ou seja, a partir de uma base fornecida pelo programador, a inteligência artificial evoluiria tanto por si mesma que ela ultrapassaria a inteligência humana, até mesmo em virtude da velocidade de seus processamentos. Desse modo, seria de suma importância a análise da responsabilidade civil da própria inteligência artificial. E, adiantando o ponto a ser abordado posteriormente, essa responsabilidade, num primeiro momento, recairia objetivamente sobre quem estiver mais bem colocado para oferecer garantias[15]. Ainda segundo a resolução europeia, seria considerada inteligência autônoma (artificial) aquela que tenha autonomia para captar dados do seu ambiente e analisá-los, para aprender por si mesma, que tenha suporte físico, e que consiga adaptar o seu comportamento ao ambiente em que se encontra[16]. Mas, se essa inteligência artificial é capaz de analisar o ambiente em que se encontra, adaptar seu comportamento e aprender sozinha, resta a indagação sobre qual seria a diferença entre uma decisão tomada por essa inteligência e uma tomada por um ser humano. Apesar de, no futuro, a inteligência artificial poder ser muito mais avançada do que a inteligência humana, não haveria motivos para que as decisões tomadas por ela (inteligência artificial) não fossem de sua própria responsabilidade. Até porque, se, de fato, ela for mais avançada do que o seu criador ou seu dono, como responsabilizá-lo por isso? A exposição de motivos da resolução europeia tenta tratar da questão. Isso porque a futura autonomia dos robôs faria com que eles deixassem de ser meros instrumentos ou ferramentas de fabricantes, usuários, etc. Desse modo, as tradicionais regras de responsabilidadecivil seriam inadequadas para tratar do assunto, já que a máquina não seria vista como possuidora de capacidade jurídica apta a responder por seus atos. Assim, seria necessária a determinação de um estatuto jurídico do robô[17]. Também interessante registrar a origem da palavra “robô”: de origem tcheca (robota), ela significa “trabalho forçado”. Ela surgiu na peça do dramaturgo Karel Čapek, na qual um autômato com forma humana fazia tudo no lugar do homem. Nesse contexto, é relevante a comparação da inteligência artificial com o estatuto jurídico dos escravos no direito romano. Isso porque, no direito romano, o escravo não era sujeito de direito, sendo considerado uma coisa. Mas, obviamente, os seus atos eram humanos e, portanto, conscientes, inteligentes e autônomos. Mas, como ele não tinha capacidade jurídica, o chefe de família era o responsável por ele, responsabilizando-se pelos seus atos (tal como é hoje em relação aos animais)[18]. Do mesmo modo, em relação aos atos de inteligências artificiais, os seus proprietários poderiam ser responsabilizados pelos seus atos. Essa seria uma alternativa ao estatuto jurídico do robô, o qual encontra bastante resistência atualmente, já que ainda seria considerada ficção científica. Assim, nenhum projeto legislativo sobre o tema atribui personalidade jurídica à inteligência artificial[19]. Thatiane Cristina Fontão Pires e Rafael Peteffi da Silva[20] falam em responsabilidade objetiva semelhante à responsabilidade vicária (“casos de responsabilidade pelo fato de terceiro, derivada de um dever de guarda, vigilância e cuidado, nos termos do art. 932 do Código Civil, como a responsabilidade dos pais pelos atos dos filhos menores que estiverem sob o seu poder e em sua companhia, o tutor e o curador pelos pupilos e curatelados, e o patrão pelos atos dos seus empregados”[21]). Os autores continuam o seu pensamento, argumentando que, nesse caso, a responsabilidade pela inteligência artificial dependeria de quem estivesse fazendo uso dela: (i) se ela é usada por um fornecedor para prestar serviços ou oferecer produtos; (ii) se ela é usada por um usuário para desempenhar determinadas atividades. Além disso, eles aduzem que, se o robô detém a capacidade de aprender da sua própria experiência, caberá ao seu responsável (proprietário/usuário) um correspondente dever de guarda e vigilância[22]. É nesse sentido que a resolução europeia determina a responsabilidade pelos atos da inteligência artificial a quem “a ensinou”[23]. d. Possível aplicação do CDC Para uma possível aplicação do CDC ao caso, deve-se, num primeiro momento, averiguar se há defeito do produto ou não. Isso porque, nos termos do art. 12 do CDC, “o fabricante, o produtor, o construtor, nacional ou estrangeiro, e o importador respondem, independentemente da existência de culpa, pela reparação dos danos causados aos consumidores por defeitos decorrentes de projeto, fabricação, construção, montagem, fórmulas, manipulação, apresentação ou acondicionamento de seus produtos, bem como por informações insuficientes ou inadequadas sobre sua utilização e riscos” (grifou-se). Continua o Código, no §1º deste artigo, que produto defeituoso é aquele que não oferece a segurança que dele legitimamente se espera, levando-se em consideração as circunstâncias relevantes (apresentação, usos e riscos que razoavelmente dele se esperam, época em que foi colocado em circulação, etc.). Tratando-se de carros autônomos, por óbvio que o CDC pode ser aplicado nas mesmas situações em que seria aplicado quando envolvesse um carro não- autônomo, como, por exemplo, no caso de freios defeituosos. Mais especificamente aos carros autônomos, é fácil perceber que o CDC pode ser aplicado em relação à má fabricação dos sensores que captam o ambiente ao redor do carro. Mas poder-se-ia alegar defeito em relação ao software, ou seja, em relação à inteligência em si? Segundo o art. 1º da L. 9.609/98:, “ Programa de computador é a expressão de um conjunto organizado de instruções em linguagem natural ou codificada, contida em suporte físico de qualquer natureza, de emprego necessário em máquinas automáticas de tratamento da informação, dispositivos, instrumentos ou equipamentos periféricos, baseados em técnica digital ou análoga, para fazê-los funcionar de modo e para fins determinados”. Com base nisso, os tribunais têm entendido que a relação entre o fornecedor do software e o usuário é de consumo, havendo vício quando não há o funcionamento total ou parcial do software, de modo a frustrar os fins a que o programa se dirigia. Ou seja, a responsabilidade do fornecedor é baseada na expectativa criada no consumidor levando em conta o que ele (fornecedor) anuncia. Assim, se o fornecedor anuncia que o seu programa é capaz de processar pagamentos por cartão de crédito, se o programa não realiza tal operação, há vício no produto. TJSC. […] INEXISTÊNCIA DE DÉBITO E RESCISÃO CONTRATUAL. CONTRATO PARTICULAR DE LICENÇA DE USO DE SOFTWARE. […] ALEGAÇÃO DE QUE SE ESMEROU PARA ATENDER O OBJETO DO CONTRATO. AUSÊNCIA DE ELEMENTOS E TAMPOUCO DE INDÍCIOS A CORROBORAREM AS ASSERTIVAS […]. PARTE AUTORA QUE FAZ JUS À RESCISÃO CONTRATUAL E A DEVOLUÇÃO DA PARCELA PAGA. […] sentença proferida pelo juízo da 1a Vara Cível da comarca da Capital que […] julgou procedentes os pedidos formulados […] para decretar a rescisão do contrato de licença de uso de software firmado entre as partes; declarar a inexistência de débito […]; condenar a […] devolver […] o valor correspondente à parcela paga […]; […] pagamento das custas processuais e honorários advocatícios, […]. […] restou satisfatoriamente comprovado que o produto e a prestação do serviço oferecidos pela apelante eram viciados e defeituosos, não atingindo o objetivo pactuado, senão veja-se: “[…] a loja ficou sem sistema por uma semana (na semana passada) […] a base de dados corrompeu. […] O sistema ainda não funciona com a bandeira da VISA; Isto foi prometido em agosto para 15 de Setembro. […] Estamos pior do que estávamos antes (pelo menos o sistema rodava). A empresa local não parece dominar o produto nem a Tecnologia. Já houve perdas de dados (isto que o sistema ainda nem entrou em funcionamento). […]”. […] restou demonstrado que nem o serviço nem o produto oferecidos pela recorrente correspondiam ao objeto do contrato, não há como manter a avença celebrada entre as partes […].[24] Quando se trata de inteligência artificial, por outro lado, é possível encontrar um problema já em relação ao art. 1º da L. 9.609/98: a lei fala em fazer os dispositivos funcionarem de modo e para fins determinados. Quando se tem em mente um programa de computador mais básico, é possível aplicar a lei sem qualquer problema. Pense-se na calculadora de um computador ou num processador de texto. Nesses casos, o programa é feito de maneira tal que a um input corresponde uma ação. O programa e o computador não têm que fazer nada mais do que uma operação de correlação. No entanto, em relação a inteligências artificiais, o programa é “incompleto”. Ou seja, o programador não pensa em todos os possíveis comandos e ações que o programa poderia realizar. Portanto, cabe à própria máquina aprender e evoluir, extrapolando as simples linhas de código que a compõem. Nesse contexto, como determinar que o programa falhou ao tomar uma decisão à qual chegou não por conta de linhas de códigos, mas porque é capaz de fazer conexões por si mesmo e, por isso, “pensar”? Nesses casos, a inteligência artificial pode ser mais inteligente que a própria inteligência que a criou, sendo o seu criador, portanto, inapto a controlar a sua própria criação. Como, então, atribuir responsabilidade ao fornecedor por algo que ele sequer pode controlar? Ou seja, é necessário indagar se as consequências lesivas de atos independentes da inteligência artificial devem ser consideradas abrangidas por defeitos do produto (risco do desenvolvimento), ou se, por se tratar de circunstância imprevisível, configuraria fato do produto pela simples circunstância de havercausado dano. Alguns autores[25] filiam-se à segunda corrente, especialmente em relação aos carros autônomos. Eles adotam a premissa de que qualquer dano causado pela inteligência artificial será resultado de falha humana res ipsa loquitor, seja falha de projeto, fabricação, montagem, ou de informação. Assim, prescindível qualquer distinção entre os casos em que há vício de concepção ou produção e os casos de danos causados por atos independentes da inteligência artificial. Thatiane Cristina Fontão Pires e Rafael Peteffi da Silva[26] argumentam que a aplicação da responsabilidade objetiva, nesse caso, exigiria apenas a prova de que ocorreu um dano e o nexo de causalidade entre este e o funcionamento lesivo do robô. Além disso, pela abordagem de gestão de riscos, a responsabilidade não se concentraria na pessoa que atuou de forma negligente, mas na pessoa capaz, nas circunstâncias, de minimizar riscos e lidar com impactos negativos. Em relação a esse ponto, os autores trazem à tela a “teoria deep pocket”, segundo a qual: “Toda pessoa envolvida em atividades que apresentam riscos, mas que, ao mesmo tempo, são lucrativas e úteis para a sociedade, deve compensar os danos causados pelo lucro obtido. Seja o criador da IA, seja o fabricante de produtos que empregam IA, seja uma empresa ou um profissional que não está na cadeia produtiva da IA, mas que a utiliza em sua atividade, como uma transportadora que usa os veículos autônomos, isto é: aquele que tem o ‘bolso profundo’ e aproveita os lucros dessa nova tecnologia deve ser o garante dos riscos inerentes às suas atividades, sendo exigível, inclusive, que se faça um seguro obrigatório de danos.”[27]. e. Cenários Jeffrey K. Gurney, da Universidade da Carolina do Sul (EUA), em seu artigo “Sue my car not me: products liability and accidents involving autonomous vehicles”[28], analisa a responsabilidade civil em caso de acidentes envolvendo carros autônomos em quatro cenários diferentes: Motorista distraído Motorista com capacidade reduzida Motorista com alguma deficiência Motorista atento A esses cenários pode-se adicionar mais um, qual seja, o acidente causado não por uma falha no sistema, mas por ato independente da inteligência artificial. f. Motorista distraído João adquire um carro autônomo para que seja mais produtivo em seu tempo. Assim, enquanto vai de carro ao trabalho, ele lê algum material importante e come um sanduíche como café da manhã, confiando que o sistema do carro autônomo o levará em segurança ao seu destino. No entanto, o sistema sofre uma falha e o carro atinge outro veículo, sem antes avisar a João que retome o controle. O motorista distraído é alguém capaz, mas que, por confiar no sistema, se distrai durante a viagem. Nesse caso, no entanto, não há dúvida de que foi o carro de João que causou o acidente. Mas quem deve ser o responsável pelos danos causados: João, o motorista por detrás do volante? Ou o fabricante do carro e do sistema[29]? Como analisado anteriormente neste trabalho, a conclusão a que se pode chegar nesse caso é que a responsabilidade seja do fabricante do carro e do sistema. Isso porque, nesse caso, trata-se de óbvio defeito do produto, já que ele falhou naquilo que era o seu fim, inclusive quebrando a confiança depositada pelo consumidor. Isto é, João adquiriu um carro autônomo justamente pelas facilidades que lhe são proporcionadas e o sistema, sem qualquer aviso para que João retomasse o controle, quebrou essa confiança. Portanto, a responsabilidade seria integralmente do fabricante. g. Motorista com capacidade reduzida Ricardo, senhor já de 80 anos, sofre com as mazelas da idade avançada: sua visão não é mais a mesma, seus reflexos são mais lentos, suas mãos e seus pés já não têm a mesma sensibilidade, etc. Por conta disso, ele compra um carro autônomo, mas, no caminho até o seu destino, o sistema sofre uma falha e Ricardo não reage a tempo de evitar um acidente. O motorista com capacidade reduzida é aquele cujas capacidades são reduzidas por qualquer motivo: idade avançada, crianças, pessoas embriagadas, etc. Esse tipo de motorista não estaria dirigindo por conta da sua capacidade reduzida, mas entra no carro por confiar no sistema. Aqui, a solução seria a mesma do cenário anterior, só que o motorista, nesse caso, confia ainda mais no produto, já que, mesmo com um aviso para que retomasse o controle poderia ser que, por conta da sua capacidade reduzida, evitar o acidente poderia ser muito difícil (capacidade reduzida) ou impossível (crianças). Desse modo, não há como negar que há uma quebra na confiança depositada pelo consumidor naquilo que foi divulgado pelo fabricante, devendo este ser responsabilizado pelo acidente em virtude também do defeito do produto. h. Motorista com alguma deficiência Cristina, cega, adquire um carro autônomo como forma de não depender sobremaneira de outras pessoas. No entanto, no caminho até o seu médico, o sistema falha e a avisa que ela deve assumir o controle do carro. Cristina, por ser cega, não pode assumir o controle e um acidente ocorre. O motorista com alguma deficiência é aquele portador de deficiência que, em circunstâncias normais, não poderia dirigir um carro: cegos, pessoas sem os membros ou com paralisia, etc. Assim, ele depende inteiramente do sistema do veículo. Trata-se de caso semelhante aos dois cenários previamente analisados. A diferença é que a confiança depositada no produto e a dependência dele são maiores a cada cenário: No 1º cenário (motorista distraído), o motorista teria plena capacidade de evitar um acidente, mas confia no sistema. Já no 2º cenário (motorista com capacidade reduzida), as possibilidades do motorista de evitar o acidente são reduzidas e, assim, o motorista não só confia no sistema como depende em parte dele. Por fim, nesse 3º cenário (motorista com alguma deficiência), evitar o acidente é impossível para o motorista e, desse modo, ele não só confia no sistema, como depende inteiramente dele. Portanto, resta evidente que a responsabilidade, nesse caso, deve ser do fabricante, já que o motorista não teria a menor possibilidade de evitar o acidente em caso de falha, mesmo que houvesse um aviso para retomar o controle. Trata-se de defeito do produto e quebra da confiança. i. Motorista atento Paulo nunca confiou muito em carros autônomos, mas resolveu adquirir um. Nas primeiras vezes em que utilizou o carro, Paulo prestou completa e total atenção. Passados alguns meses, ele passou a confiar mais no sistema e começou a realizar outras atividades no caminho. Um dia, no entanto, o carro começa a pender para a esquerda, em uma óbvia falha do sistema. Ao invés de assumir o controle, Paulo apenas observa, esperando que o sistema conserte a si mesmo. Entretanto, havia um outro carro no ponto cego e um acidente ocorre. O motorista atento é aquele motorista que presta atenção no caminho como se estivesse dirigindo. Portanto, ele tem a capacidade de prever e evitar acidentes, diferentemente dos outros cenários. Por conta dessa diferença, esse cenário apresenta uma solução um pouco diferente. Isso porque, apesar de ter havido a falha do sistema e, por conseguinte, o defeito do produto, o motorista, ao não fazer nada, mesmo podendo, também contribuiu para o acidente. Trata-se, portanto, de um caso de responsabilidade compartilhada entre o fabricante e o motorista, na medida de suas culpabilidades. j. Ato independente da inteligência artificial Rafael, cansado com o tempo perdido durante o trânsito, adquire um carro autônomo para que ele possa realizar outras tarefas no caminho. Assim, confiando plenamente no sistema, Rafael passa o trajeto de sua casa ao trabalho e o retorno trabalhando. No entanto, um certo dia, ocorre um acidente, com o carro atropelando um pedestre que atravessava a rua fora da faixa de pedestre. Feitas análises no sistema, foi descoberto que, analisando o ambiente em que se encontrava, o sistema tomou a decisão errada de que o pedestre não iria atravessar a rua e, por isso, não reduziu a suavelocidade. O ato independente da inteligência artificial é aquele no qual não há qualquer falha no sistema, mas sim uma tomada de decisão equivocada. Isso porque, assim como os seres humanos, o sistema é passível de equívocos, apesar de mais raros[30]. Desse modo, o sistema pode fazer uma análise equivocada das circunstâncias, como ver um pedestre na calçada fora da faixa de pedestre e não achar que ele vá atravessar a rua, quando, na verdade, é justamente isso que ele faz. A responsabilidade nesse caso foi tratada quando da análise do direito estrangeiro. De fato, nenhum ordenamento jurídico, hoje, é adequado para lidar com essa situação. O que se pode fazer, portanto, é aplicar o direito existente, mesmo que a solução encontrada não seja tão satisfatória. Assim, como analisado anteriormente, poder-se-ia falar em responsabilidade por atos de terceiros (aplicação analógica do art. 932 do CC), com o criador da inteligência respondendo por seus atos. Entende-se, aqui, que seria inviável a responsabilização do usuário consumidor (motorista comum), já que, sendo a parte vulnerável, ele deposita a sua confiança no produto que lhe é fornecido por alguém que ele presume que tenha maior expertise no assunto. Já em relação ao usuário não-consumidor (e.g. empresas transportadoras que utilizem caminhões autônomos), entende-se, aqui, que a responsabilidade por acidentes causados por atos independentes seja do próprio usuário não-consumidor, já que se trata de um instrumento utilizado na sua atividade empresária e, portanto, circunstância dentro do risco interno da atividade. Poder-se-ia falar em direito de regresso em face do fabricante, mas isso já seria uma questão fora do acidente em si. 4. Conclusão Por todo o exposto no presente artigo, entende-se que é necessária a prévia regulação do tema. Em que pesem o Código Civil e o Código de Defesa do Consumidor poderem ser aplicados, a sua ratio não é a aplicação em casos de inteligência artificial, até porque o ordenamento jurídico brasileiro ainda não comporta sujeitos de direitos que não sejam seres humanos – ao contrário de alguns países que já preveem o meio ambiente como detentor de direitos. Assim, é necessária uma adequação do ordenamento brasileiro à tecnologia que está por vir, ou, ao menos, uma interpretação mais extensiva e elástica do direito já aplicável. De qualquer forma, vê-se que ainda é controverso o conceito de um “estatuto jurídico do robô”. Trata-se de tecnologia que avança muito mais rápido do que a inteligência e compreensão de mundo humana é capaz de acompanhar. Entretanto, na prática, é possível perceber que a tecnologia já está quase alcançando uma realidade que era tida somente como ficção científica. Da robô Sofia aos carros autônomos, a tecnologia transforma a vida dos indivíduos, e o Direito deve acompanhar a realidade. Referências Bibliográficas ANTSAKLIS, Panos J.; PASSINO, Kevin M.; WANG, S.J. “An Introduction to Autonomous Control Systems” (1991). Disponível em: <http://citeseerx.ist.psu.edu/viewdoc/download?doi= 10.1.1.454.1785&rep= rep1&type=pdf?> Acesso em 30. Jan. 2019 BRASIL. Tribunal de Justiça do Estado de Santa Catarina. Apelação Cível n. 2008.056831- 7, da Capital. Relator Sérgio Izidoro Heil. Julgamento em 29/09/2011. Disponível em: <http://app6.tjsc.jus.br/cposg/servlet/ServletArquivo? cdProcesso=01000CK3C0000&nuSeqProcessoMv=null&tipoDocumento=D&cdAcordaoDoc=null&nuDocumento=3823687&pdf=true> Acesso em 30. Jan. 2019 GURNEY, Jeffrey K., Sue my car not me: products liability and accidents involving autonomous vehicles. Disponível em: <http://ssrn.com/abstract=2352108> Acesso em 30. Jan. 2019 NY TIMES. Disponível em: <https://www.nytimes.com/2014/11/09/automobiles/in-self-driving- cars-a- potential-lifeline -for-the-disabled.html?_r=0> Acesso em 30. Jan. 2019 NY TIMES. Disponível em: <https://www.nytimes.com/2010/10/10/science/10google.html? pagewanted=all> Acesso em 16. Mar. 2019 PIRES, Thatiane Cristina Fontão; SILVA, Rafael Peteffi da. A responsabilidade civil pelos atos autônomos da inteligência artificial: notas iniciais sobre a resolução do Parlamento Europeu. Rev. Bras. Polít. Públicas, Brasília, v. 7, nº 3, 2017 p. 238-254 Press Release, Nat’l Highway Traffic Safety Admin., Preliminary Statement of http://ssrn.com/abstract=2352108 Policy Concerning Autonomous Vehicles 10 (May 30, 2013). Disponível em: <http://www.nhtsa.gov/staticfiles/rulemaking/pdf/ Automated_Vehicles_Policy.pdf> Acesso em 30. Jan. 2019 READ WRITE. Disponível em: <http://readwrite.com/2016/04/22/autonomous- cars-elderly- disabled-drivers-google-tl4/> Acesso em 30. Jan. 2019 UNIÃO EUROPEIA. Projeto de Relatório que contém recomendações à Comissão sobre disposições de Direito Civil sobre Robótica (2015/2013(INL)). Relatora Mady Delvaux, de 31 de maio de 2016. p. 11. Disponível em: <http://www.europarl.europa.eu/sides/getDoc.do?pubRef=-//EP// NONSGML+COMPARL+ PE-582.443+01+DOC+PDF+V0//PT> Acesso em 30. Jan. 2019 UNIÃO EUROPEIA. Resolução do Parlamento Europeu, de 16 de fevereiro de 2017, com recomendações à Comissão de Direito Civil sobre Robótica (2015/2103(INL)). Parágrafo 1º. 1. Pós-graduado pela EMERJ. Assessor no TJRJ. ↵ 2. Press Release, Nat’l Highway Traffic Safety Admin., Preliminary Statement of Policy Concerning Autonomous Vehicles 10 (May 30, 2013). Disponível em: <http://www.nhtsa.gov/staticfiles/rulemaking/ pdf/ Automated_Vehicles_Policy.pdf> Acesso em 30. Jan. 2019. ↵ 3. ANTSAKLIS, Panos J.; PASSINO, Kevin M.; WANG, S.J. "An Introduction to Autonomous Control Systems" (1991). Disponível em: <http://citeseerx.ist.psu.edu/viewdoc/download?doi=10.1.1.454. 1785&rep= rep1&type=pdf?> Acesso em 30. Jan. 2019 ↵ 4. Press Release, Nat’l Highway Traffic Safety Admin, op. cit. ↵ 5. Disponível em: <https://www.google.com/selfdrivingcar/> Acesso em 30. Jan. 2019 ↵ 6. Disponível em: <https://www.nytimes.com/2014/11/09/automobiles/in-self- driving-cars-a-potential-lifeline -for-the-disabled.html?_r=0> Acesso em 30. Jan. 2019 ↵ 7. Disponível em: <http://readwrite.com/2016/04/22/autonomous- cars-elderly-disabled-drivers-google-tl4/> Acesso em 30. Jan. 2019 ↵ 8. Google só começou a produzir seus próprios carros em 2015: Waymo (https://waymo.com/journey/). No entanto, a empresa continua a utilizar carros pré-existentes, acoplando a câmera e o sistema em cima do carro. ↵ 9. O site da Google diz “three football fields”, ou seja, 360 jardas. ↵ 10. Disponível em: <https://waymo.com/tech/> Acesso em 30. Jan. 2019 ↵ 11. Radares, câmeras, GPS e mapas. ↵ 12. Press Release, Nat’l Highway Traffic Safety Admin., op. cit. ↵ 13. Disponível em: <http://www.dmvnv.com/autonomous.htm> Acesso em 30. Jan. 2019 ↵ 14. PIRES, Thatiane Cristina Fontão; SILVA, Rafael Peteffi da. A responsabilidade civil pelos atos autônomos da inteligência artificial: notas iniciais sobre a resolução do Parlamento Europeu. Rev. Bras. Polít. Públicas, Brasília, v. 7, nº 3, 2017 p. 238-254. ↵ 15. Ibid. ↵ 16. UNIÃO EUROPEIA. Resolução do Parlamento Europeu, de 16 de fevereiro de 2017, com recomendações à Comissão de Direito Civil sobre Robótica (2015/2103(INL)). Parágrafo 1º. ↵ 17. PIRES, Thatiane Cristina Fontão; SILVA, Rafael Peteffi da. op. cit. ↵ 18. Ibid. ↵ 19. Ibid. ↵ 20. Ibid. ↵ 21. Ibid. ↵ 22. Ibid. ↵ 23. UNIÃO EUROPEIA. Projeto de Relatório que contém recomendações à Comissão sobre disposições de Direito Civil sobre Robótica (2015/2013(INL)). Relatora Mady Delvaux, de 31 de maio de 2016. p. 11. Disponível em: <http://www.europarl.europa.eu/sides/getDoc.do? pubRef=-//EP// NONSGML+COMPARL + PE- 582.443+01+DOC+PDF+V0//PT> Acesso em 30. Jan. 2019 ↵ 24. BRASIL. Tribunal de Justiça do Estado de Santa Catarina. Apelação Cível n. 2008.056831- 7, da Capital. Relator Sérgio Izidoro Heil. Julgamento em 29/09/2011. Disponível em: <http://app6.tjsc.jus.br/cposg/servlet/ServletArquivo? cdProcesso=01000CK3C0000&nuSeqProcessoMv=null&tipoDocumento=D&cdAcordaoDoc=null&nuDocumento=3823687&pdf=true> Acesso em 30. Jan. 2019 ↵ 25. J. K. C. Kingston, David C. Vladeck,e Paulius Čerka, Jurgita Grigiené e Gintarè Sirbikyté. ↵ 26. PIRES, Thatiane Cristina Fontão; SILVA, Rafael Peteffi da. op. cit. ↵ 27. Ibid. ↵ 28. GURNEY, Jeffrey K., Sue my car not me: products liability and accidents involving autonomous vehicles. Disponível em: <http://ssrn.com/abstract=2352108> Acesso em 30. Jan. 2019 ↵ 29. Nesse caso, será considerado que o fabricante do carro e do sistema são a mesma pessoa. ↵ 30. <https://www.nytimes.com/2010/10/10/science/10google.html? pagewanted=all> Acesso em 16. Mar. 2019 ↵ 7. Accountability de algoritmos: a falácia do acesso ao código e caminhos para uma explicabilidade efetiva Isabela Ferrari[1] Resumo: Depois de esclarecer o que são e como funcionam os algoritmos, apontamos os problemas relativos à visão de que o acesso ao código-fonte seja uma via apta a garantir a compreensão dos aspectos definidores da solução apontada. Em seguida, sugerimos caminhos mais profícuos em direção à explicabilidade. 1. Introdução Três histórias ilustram as preocupações que endereçamos neste artigo. A primeira é a história de Joy Buolamwini. Começa quando nossa protagonista estava finalizando seu curso de computação na Georgia Institute of Technology, na Universidade de Oxford. Seu trabalho de conclusão de curso era relativamente simples: desenvolver um robô social[2]. Decidiu criar um software capaz de brincar de pikaboo, uma popular brincadeira infantil que consiste basicamente em cobrir o rosto e descobri-lo em seguida, quando então se diz “pikaboo”. Para atingir seu objetivo, Joy utilizou-se de um software aberto de reconhecimento facial – já que identificar o rosto descoberto era crucial para que a brincadeira virtual fosse bem-sucedida. Percebeu, com curiosidade, que apesar de o programa funcionar com diversos amigos, era incapaz de reconhecer seu rosto. Joy é negra. Descoberto o defeito do software-base e apesar do incômodo com a situação, Joy focou em terminar o trabalho – usando uma máscara branca ou sua colega de quarto para checar o funcionamento do programa. Anos depois, e já cursando o seu Ph.d. no Massachussets Institute of Technology (MIT), Joy participou de uma competição em Hong Kong. Em visita a uma startup local, planejada pelos organizadores, novamente Joy era a única pessoa em quem um programa, que dependia de reconhecimento facial, não funcionava. Já desconfiada da razão, Joy descobriu, estupefata, que o software base utilizado em Hong Kong era o mesmo que ela havia utilizado no seu trabalho de conclusão de curso, anos antes nos Estados Unidos. Nossa segunda história é mais singela, mas não menos relevante. Recentemente, o Estado de Nova York passou a se utilizar de softwares para avaliar os professores que trabalhavam em algumas escolas públicas e recomendar a demissão daqueles cuja performance fosse considerada abaixo do esperado. Os resultados indicaram a demissão de professores muito bem avaliados por pais e alunos[3]. A terceira situação, em nossa opinião, é mais sensível de todas. Trata-se do caso Loomis. Em 2013, Eric Loomis foi preso em flagrante após furtar um veículo, evadir- se de um agente de trânsito e envolver-se em um tiroteio. Levado à presença de um juiz, determinou-se, inicialmente, que respondesse ao processo em liberdade. Em seu julgamento, foi condenado a seis anos de prisão. Com o seu passado de agressão sexual, a pena aplicada a Loomis não foi surpresa. O caso, no entanto, tornou-se mundialmente conhecido, porque tanto a negativa da liberdade provisória, quanto o patamar aumentado da pena foram definidos a partir da avaliação de que Loomis apresentaria alto risco de violência, reincidência e evasão, avaliação essa feita por um software, à qual aderiu o juiz sem adicionar qualquer análise própria. A situação é ainda mais sensível porque o referido programa, denominado COMPAS (Correctional Offender Management Profiling for Alternative Sanctions), é um software privado, que funciona a partir de um algoritmo secreto, ao qual nem os juízes que o utilizam têm acesso[4]. Loomis, então, recorreu à Suprema Corte de Winsconsin, requerendo o acesso aos critérios que levaram o software a classificá-lo como uma pessoa de alto risco. O Procurador-Geral do Estado foi contra a utilização do sistema. Ele defendeu que, como o uso de algoritmos para a tomada de decisões é muito recente, a questão ainda não estaria madura para julgamento, sustentando que Loomis estaria livre para questionar o resultado da sua avaliação e possíveis falhas, mas que não poderia acessar o código-fonte do algoritmo. Na mesma linha, os representantes legais da Northpointe Inc., desenvolvedora do COMPAS, defenderam que sua forma de operação estaria protegida por segredo industrial. Durante o julgamento, algumas questões desconfortáveis foram levantadas, como o relatório da ONG ProPublica, sobre o enviesamento do Compas contra afro- americanos[5]. Apesar disso, a Suprema Corte de Winsconsin negou o pleito de Loomis, afirmando que ele teria recebido a mesma sentença a partir de uma análise humana dos fatores usuais: seu crime e seus antecedentes. Loomis recorreu à Suprema Corte Americana, que negou o writ of certiorari, algo semelhante a um pedido de admissão para julgamento, por ele apresentado. Loomis permanecerá preso até 2019[6]. O que aproxima as três histórias é a dificuldade de antecipar um problema decorrente do uso de algoritmos, em boa medida em razão da opacidade de sua forma de operação. Este texto destina-se a esclarecer como funciona a categoria dos algoritmos que utiliza inteligência artificial em sua operação, demonstrando, assim, por que razão existe necessariamente uma dificuldade em controlar esse processo. Em seguida, depois de rejeitar o acesso ao código fonte como solução para o problema, indicamos os caminhos que nos parecem mais promissores para atingir a desejada explicabilidade mínima relativa ao funcionamento de processos operativos decisórios por algoritmos de machine learning. 2. O que são e como funcionam os algoritmos? O que é um algoritmo? Existem várias formas de responder a essa pergunta. Neste trabalho, usaremos a definição de Pedro Domingos, valiosa por sua simplicidade: algoritmo é uma sequência de instruções que diz a um computador o que fazer[7]. Wolkart[8] explica os algoritmos comparando-os com uma escada, que determinada pessoa utiliza para sair de um ponto inicial até o topo. O algoritmo faz o mesmo: divide determinada tarefa (chegar até o topo) em tarefas menores (passar por cada um dos degraus). Quanto ao seu funcionamento, podemos classificar os algoritmos em duas espécies: os programados e os não programados. Algoritmos programados seguem as operações (“o caminho”) definidas pelo programador. Assim, a informação “entra” no sistema, o algoritmo atua sobre ela, e o resultado (output) “sai” do sistema. O programador domina, portanto, todas as etapas operativas do algoritmo. Ainda em 1950, referindo à operação de algoritmos, Alan Turing, no seminal Computing Machinery and Intelligence, propunha que, no lugar de se imitar o cérebro de um adulto, programando todas as operações a serem realizadas, seria mais produtivo adotar estratégia diversa: simular o cérebro de uma criança, com capacidade randômica de aprendizado[9]. Nascia aí a ideia motriz dos algoritmos não programados, aqueles que usam a técnica que ficou conhecida como aprendizagem de máquinas, ou machine learning. Essa categoria de algoritmos, denominados learners, opera criando outros algoritmos. Nesse caso, os dados e o resultado desejado são carregados no sistema (input), que produz o algoritmo (output) que transforma um no outro. Como destaca Pedro Domingos, o computador escreve a própria programação, de forma que humanos não tenham que fazê-lo[10]. A técnica de machine learning pode ser definida, então, como a prática de usar algoritmos para coletar e interpretar dados, fazendo predições sobre fenômenos . As máquinas desenvolvem modelos e fazem predições automáticas, independentemente de nova programação[11]. Os dados, aliás,são a matéria prima da aprendizagem. Por isso, um grande volume de dados é essencial para o sucesso da técnica. Isso explica por que o advento do big data (o imenso volume de dados estruturados e não estruturados) na última década teve um impacto tão significativo para a aprendizagem de máquinas, que já existia desde a década de 70[12]. A rápida evolução computacional, embalada pelas exponenciais Leis de Moore[13] e de Kryder[14], trouxe uma abundância de dados jamais vista na humanidade e, portanto, matéria-prima sem limites para técnicas computacionais de inteligência artificial. A forma mais simples dos algoritmos não programados, ou seja, aqueles que empregam machine learning, é aquela que emprega algoritmos supervisionados, na qual o sistema é alimentado com dados lapidados e previamente escolhidos por seres humanos. Nesse caso, o conjunto de dados rotulados e a saída desejada são carregados no sistema. Enquanto é treinado, o modelo ajusta as suas variáveis para mapear as entradas para a saída correspondente. Um exemplo são os algoritmos utilizados pelos bancos para aprovar a concessão de empréstimos. Nesse caso, os dados analisados serão referentes ao histórico de crédito do cliente, e as informações utilizadas para treinar o sistema são dados já rotulados como positivos ou negativos para a concessão de crédito. Uma espécie de estruturação algorítmica que funciona de forma supervisionada são as redes neurais artificiais (com back propagation). Inspiradas no cérebro humano, têm modelo de aprendizagem baseada em erros e acertos, com identificação paulatina dos caminhos e decisões mais corretas para atingir determinados objetivos. Nesses casos, o sistema é carregado com um objetivo (output), e vários inputs. Os inputs são testados em vários caminhos. Quando se chega ao resultado desejado, o caminho mais assertivo recebe um peso maior na conta matemática. Assim, as camadas neurais internas (hidden layers) mais assertivas passam a dominar a tarefa e a entregar resultados mais precisos na medida em que o algoritmo confere um peso maior às conexões que apresentem resultados mais próximos dos desejados[15]. Uma segunda categoria relevante é a dos algoritmos não supervisionados (non- supervised learning algorithms). Nesse caso, os dados que alimentam o sistema não são rotulados, deixando o algoritmo de aprendizagem encontrar estrutura nas entradas fornecidas por conta própria. Dessa forma, esses algoritmos têm a capacidade de organizar amostras sem que exista uma classe pré-definida. O aprendizado não supervisionado é útil quando for necessário descobrir padrões em determinado conjunto de dados não rotulados, e pode ser um objetivo em si mesmo ou, ainda, um meio para atingir determinada finalidade. Essa técnica é empregada no reconhecimento e identificação de faces e de vozes, e na criação de sistemas de tomada de decisão em curto espaço de tempo, viabilizando, por exemplo, a construção de carros e drones autônomos[16]. Exemplo de estruturação algorítmica que funciona de forma não supervisionada para atingir determinada finalidade é a rede neural convolucional, utilizada com sucesso no reconhecimento de imagens e processamento de vídeo. Na área da saúde, a técnica é utilizada para o diagnóstico de determinadas doenças[17]. Finalmente, uma terceira categoria corresponde aos algoritmos de reforço (reinforced learning algorithms), que são treinados para tomar decisões. Nesses casos, existe um feedback sobre o sucesso ou erro do output, que será utilizado para aprimorar o algoritmo. Diferentemente dos algoritmos supervisionados e não supervisionados, os de reforço não estão direcionados a gerar outputs “corretos”, mas enfocam a questão da performance, comportando-se de forma muito semelhante aos seres humanos, que aprendem com base em consequências positivas ou negativas, como uma criança que coloca o dedo na tomada e logo percebe que essa não é uma ação inteligente. Esse tipo de algoritmo é corriqueiramente utilizado em jogos, e a pontuação maior ou menor que eles atingem no processo funciona como recompensa[18]–[19]. Ao mesmo tempo em que se percebe que os modelos mais modernos de inteligência artificial foram inspirados na biologia e psicologia do cérebro humano[20], é evidente a perda de controle sobre os processos de aprendizagem de algoritmos. A autonomia dos algoritmos de machine learning faz com que as tarefas por eles desempenhadas sejam difíceis de antever e, mesmo após a decisão, difíceis de explicar. Mesmo os learners mais simples, supervisionados, não permitem que se compreenda propriamente o seu funcionamento – a menos que tenham sido estruturados para tanto. Quando se passa aos algoritmos não supervisionados ou de reforço, sequer há controle sobre os inputs utilizados na aprendizagem de máquinas. Ademais, à medida em que os algoritmos se tornam mais complexos e passam a interagir uns com os outros, a tendência é a de que esse desafio se agrave[21]. 3. Opacidade, Acesso ao Código e a Falácia da Transparência A dificuldade humana de compreender os mecanismos de funcionamento dos algoritmos que empregam machine learning, sejam eles supervisionados, não supervisionados ou de reforço, explica os problemas que foram apresentados no início deste artigo. Caso os fatores que influíram na decisão fossem claramente perceptíveis, teria sido possível identificar rapidamente: no caso de Joy, a incompletude dos dados que foram utilizados pelo learner, que gerou a incapacidade de reconhecimento de um espectro mínimo de faces; no caso das escolas americanas, os critérios equivocados de classificação que levaram ao resultado inadequado; e, no caso Loomis, o uso inadmissível do critério étnico como fator que contribuiu de forma relevante para a análise de risco. Por essa razão, já destacamos[22] que a maior preocupação relativa ao emprego dos learners em processos decisórios não se refere a problemas associados aos data sets utilizados para treiná-los, nem a eventual efeito discriminatório que possam gerar, por piores que possam ser essas situações e seus efeitos. O que mais chama a nossa atenção é a opacidade inerente à sua operação, decorrente da já referida lacuna entre a atividade do programador e o comportamento dessa espécie de algoritmo que cria a própria programação. Vimos que o algoritmo modifica de forma autônoma sua estrutura enquanto opera, de acordo com os dados, lapidados ou não, que recebe. Assim, pela complexidade de sua operação, a mera observação do output por um ser humano – ainda que seu próprio programador – dificilmente poderia conduzir a alguma conclusão sobre os processos internos que conduziram os inputs até lá, tornando o algoritmo uma verdadeira caixa-preta[23]. E a essa dificuldade de entender o seu funcionamento usualmente está associada, por razões culturais, à percepção de que os resultados apontados por eles são “científicos”. A opacidade dos algoritmos, o pouco questionamento dos resultados por ele produzidos e a sua capacidade de aplicação em escala global (como ilustra a historia de Joy Buolamwini), levaram Cathy O’Neil a referir-se a eles como “weapons of math destruction”, em tradução livre, “armas de destruição matemática”[24]. Por vezes, a resposta à preocupação sobre o accountability de algoritmos se encaminha no sentido de uma defesa do acesso ao código fonte. Surge, então, uma falsa questão: o pretenso conflito entre o atendimento a um dever de transparência em relação ao algoritmo, que implicaria a abertura de seu código-fonte, e a noção de sigilo industrial. Embora a doutrina perca tempo e energia nessa discussão, denominamos o argumento de “falácia da transparência”. Nesse sentido, como bem ressaltam Mittelstadt et al.[25], a transparência deve ser entendida sob dois aspectos fundamentais: acessibilidade e compreensibilidade. Apesar de a discussão doutrinária se voltar para a primeira, ou seja, para a defesa ou não de um direito a acessar o código-fonte, parece-nos que o ponto fulcral para o debate se refere ao segundo componente.Isso porque, diante da estrutura cada vez mais complexa dos algoritmos que empregam machine learning, a mera abertura do código-fonte, por si só, tende a não auxiliar a compreensão da forma como operam, já que o referido código só expõe o método de aprendizado de máquinas usado, e não a regra de decisão, que emerge automaticamente a partir dos dados específicos sob análise. Como salienta Burrell[26], a opacidade dos learners é consequência da alta dimensionalidade de dados, da complexidade de código e da variabilidade da lógica de tomada de decisões. Por empregarem centenas ou milhares de regras, por suas predições estarem combinadas probabilisticamente de formas complexas[27], pela velocidade no processamento das informações, e pela multiplicidade de variáveis operacionais[28], parece estar além das capacidades humanas apreender boa parte – senão todas – as estruturas decisórias que empreguem a técnica de machine learning. Assim, o mero acesso ao código comunica muito pouco, remanescendo a dificuldade de compreender o processo decisório[29]. Como já destacamos em trabalho anterior, “algoritmos apenas podem ser considerados compreensíveis quando o ser humano é capaz de articular a lógica de uma decisão específica, explicando, por exemplo, a influência de determinados inputs ou propriedades para a decisão”[30]. O cenário é preocupante, e o acesso ao código fonte não responde adequadamente ao problema. Existem, entretanto, outros caminhos que podem ser trilhados no sentido de uma explicabilidade possível. São essas possibilidades que passamos a explorar na próxima seção. 4. Caminhos para uma explicabilidade efetiva Conferir explicabilidade aos algoritmos não é tarefa fácil. A questão não é se ela é necessária – existe um consenso razoável nesse sentido. A questão é como fazê-lo. Essa resposta não só está necessariamente fora do direito, como ainda não foi encontrada. Embora diversos textos discutam princípios aplicáveis à inteligência artificial, exponham princípios standards, e imponham deveres como explicabilidade, transparência, confiança, etc., não há no direito comparado um panorama jurídico, capaz de provê-la, apto a ser replicado ou importado. Uma abordagem que busque trilhar um caminho concreto na direção da explicabilidade dos algoritmos precisa desbordar do campo exclusivamente jurídico e atentar a questões relativas aos desenhos de políticas públicas, além de observar possibilidades e ferramentas que a ciência da computação provê. Com relação ao tema, a primeira recomendação daqueles que têm familiaridade com ele costuma ser no sentido de que, para que a operação do algoritmo seja controlável, é necessário que essa preocupação com o accountability esteja presente desde o seu desenvolvimento. Nesse sentido, destacam a dificuldade de controlar um sistema que empregue machine learning que não tenha sido desenvolvido para ser controlado. Essa situação também denota a urgência de avançar nessa pauta. Além disso, é preciso perceber que existem diferentes técnicas conhecidas como machine learning, com níveis de controlabilidade diferentes. Enquanto algumas são fortemente opacas, outras, como a inteligência artificial semântica, podem ser estruturadas para justificar as escolhas feitas. A partir dessa constatação e, como sempre, atentando a questões técnicas, seria possível começar a refletir sobre as técnicas que deveriam ser priorizadas na tomada de certas decisões. Por exemplo, seria legítima a escolha governamental pelo emprego de um algoritmo de machine learning do tipo black box para escolhas sensíveis quando seria viável estruturar um sistema fundado em inteligência artificial semântica? A atenção a ferramentas técnicas também permite encontrar caminhos interessantes em direção à explicabilidade. Em um dos melhores artigos que abordam o assunto, escrito a muitas mãos, Kroll et al. destacam alguns mecanismos aptos a garantirem o que denominam regularidade procedimental. Trata-se de ferramentas que, embora não garantam que o resultado derivado do emprego do algoritmo seja justo, atestam que não houve, por exemplo, uma falha no procedimento adotado, ou que a mesma política decisória foi adotada em casos diferentes. Esses instrumentos, portanto, garantem algum nível de accountability, ainda que aspectos do funcionamento do algoritmo sejam mantidos em sigilo. A primeira ferramenta que apontam é chamada verificação de software. Diferente da análise de código, que é estática, a verificação de software é dinâmica, e examina o programa enquanto ele opera. Essa análise garante que, ao operar, o sistema sempre apresentará certas propriedades, denominadas invariantes. A segunda são os acordos criptográficos, equivalentes digitais a um documento selado por uma terceira parte, ou à manutenção de um documento em local seguro. Os acordos criptográficos asseguram que o programa não foi alterado nem revelado, e são muito utilizados para programas que devem ser mantidos em sigilo por determinado tempo. Acordos criptográficos podem ser utilizados para ocultar, por dado período, critérios utilizados pelo algoritmo em seu processo de tomada de decisão quando a divulgação imediata dos mesmos poderia possibilitar que aqueles agentes sobre cujos interesses atua tentassem “enganá-lo”. Poderiam ter por objeto, por exemplo, os critérios empregados em sistemas de análise de declaração de imposto de renda, para lançar os sinais de alerta que levam a uma revisão da declaração ou análise mais aprofundada. Assim, passado certo tempo, os acordos criptográficos dão certeza sobre os critérios utilizados, e a partir daí pode-se seguir análise sobre a legitimidade de sua operação pretérita. A certeza de que haverá disclosure futuro tem o efeito de refrear a tendência a usar critérios inadequados, discriminatórios etc. O terceiro instrumento indicado são as chamadas zero-knowledge proofs, ferramentas criptográficas que permitem que de pronto se prove que a política decisória utilizada apresenta certa propriedade, sem revelar como se sabe disso ou que política decisória é. Em aulas de criptografia é comum explicarem essa ferramenta através do exemplo de dois milionários em um restaurante, que acordam que o mais rico entre eles deve pagar a conta, mas ao mesmo tempo não desejam informar ao outro quanto têm. Nesse caso, seria possível criar uma zero-knowledge proof para descobrir quem deve pagar a conta sem que haja disclosure do patrimônio de cada um. Finalmente, as fair random choices são estratégias aptas a garantir que, quando o sistema possuir algum nível de aleatoriedade, esta será justa, e não poderá haver intromissão indevida de agentes internos na aleatoriedade do sistema. É mecanismo cuja aplicação Kroll et al. defendem no sistema de loteria de vistos americanos, que, segundo alguns programadores, não é exatamente segura, podendo ser fraudada (internamente), ainda que hipoteticamente. Essas ferramentas específicas, além de mostrarem caminhos para melhorar o controle de certos sistemas, têm o valor de denotar a necessidade de um olhar mais cuidadoso dos criadores de políticas públicas para a área. 5. Conclusões Após apresentarmos o conceito de algoritmo não programado e expormos a forma como operam, destacamos a opacidade que caracteriza o seu processo decisório. Em seguida, demonstramos os motivos pelos quais o mero acesso a seu código- fonte não responde como o programa parte dos inputs para chegar ao resultado apontado, ou seja, não permite apreender o seu processo decisório. Ressaltamos, na linha defendida por Mittelstadt et al., que a noção de transparência não se esgota na ideia de acessibilidade (ao código), mas desborda para a noção de compreensibilidade, que faz referência ao efetivo entendimento de aspectos fundamentais de sua forma de operação. Finalmente, destacamos algumas estratégias promissoras que podem ser adotadas para prover uma explicabilidade mínima para os learners. Referências bibliográficas ANGWIN, Julia et al. Machine Bias. Pro Publica. Disponível em: <https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing>. Acesso em: 15.06.2018. BAROCAS, Solon; SELBST, Andrew D. Big Data’s Disparate Impact, n. 104, California Law Review 671, 2016. BUOLAMWINI, Joy. How I’m fighting bias in algorithms. TED Talks. Disponível em: <https://www.ted.com/talks/joy_buolamwini_how_i_m_fighting_bias_in_algorithms/transcript#t- 74828>. Acesso em: 20.06.2018. BURRELL, Burrel. How the machine ‘thinks’: understanding opacity in machine learning algorithms. Big Data & Society 2016, 3 (1), p 1–12. DATTA, Anupam et al. Algorithmic transparency via quantitative input influence. Proceedings of 37th IEEE Symposium on Security and Privacy, San Jose, USA. Disponível em: <http://www.ieee-security.org/TC/SP2016/papers/0824a598.pdf>. Acesso em: 20.06.2018. DOMINGOS, Pedro. The master algorithm: how the quest for the ultimate machine learning will remake our world. Nova York: Basic Books, 2015. EPIC.ORG. Algorithms in the Criminal Justice System. Eletronic Privacy Information Center. Disponível em: <https://epic.org/algorithmic- transparency/crim-justice/>. Acesso em: 23.06.2018. ESTADOS UNIDOS DA AMÉRICA. Big data: seizing opportunities, preserving values, maio de 2014. Gabinete Executivo do Presidente dos Estados Unidos da América. Disponível em: <http://www.whitehouse.gov/sites/default/files/docs/big_data_privacy_report_5.1.14_final_print.pdf>. Acesso em: 15.06.2018. GARDNER. G. G. et al. Automatic detection of diabetic retinopathy using an artificial neural network: a screening tool. British Journal of Ophthalmology, 80, 1996, p. 940-944. Disponível em: <https://www.ncbi.nlm.nih.gov/pmc/articles/PMC505667/pdf/brjopthal00011- 0006.pdf>. Acesso em: 15.06.2018. ISRANI, Ellora. Algorithmic due process: mistaken accountability and attribution in State v. Loomis. JOLTdigest. Disponível em: [https://jolt.law.harvard.edu/digest/algorithmic-due-process-mistaken- accountability-and-attribution-in Acesso em: 25.10.2017. ITO, Joi; HOWE, Jeff. Whiplash: How to survive our faster future. New York; Boston: Grand Central, 2016. KROLL, Joshua A. et al. Accountable Algorithms. University of Pennsylvania Law Review v. 165, p. 633-705, 2017. LIPTAK, Adam. Sent to prison by a software program’s secret algorithms. NY Times. Disponível em: <https://www.nytimes.com/2017/05/01/us/politics/sent-to- prison-by-a-software-programs-secret-algor>. Acesso em: 15.06.2018. MACNISH, Kevin. Unblinking eyes: The ethics of automating surveillance. Ethics and Information Technology 14(2), p. 151-167, 2012. MITTELSTADT, Brent Daniel et al. The ethics of algorithms: Mapping the debate. Big Data & Society, 1-21, jul.- dez. 2016. MNIH, Volodymyr et al. Human-level control through deep reinforcement learning. Nature, v. 518, p. 529-533, 26.02.2015. O’NEIL, Cathy. The era of blind faith in big data must end. TED Ideas. Disponível em: <https://www.ted.com/talks/cathy_o_neil_the_era_of_blind_faith_in_big_data_must_end/transcript>. Acesso em: 22.06.2018. O’NEIL, Cathy. Weapons of math destruction: how big data increases inequality and threatens democracy. Crown: Nova York, 2016. RUMERLHART, David E.; HILTON, Geoffrey E.; WILLINANS, Ronald J. Learning Representations by back-propagating erros. Nature, v. 323, issue 9, out. 1986. TURING, Alan. Computing Machinery and Intelligence. Mind, New Series, v. 59, n. 236 p. 433-460, out. 1950. WALTER, Chip. Kryder’s Law. Scientific American. Disponível em: <https://www.scientificamerican.com/article/kryders-law/>. Acesso em: 07.06.2018. WOLKART, Erik Navarro. Análise econômica e comportamental do processo civil: como promover a cooperação para enfrentar a tragédia da Justiça no processo civil brasileiro. 2018. 835 f. Tese (Doutorado em Direito) – Universidade do Estado do Rio de Janeiro, Rio de Janeiro. 1. Juíza Federal, Mestre e Doutoranda em Direito Público pela Universidade do Estado do Rio de Janeiro (UERJ), Visiting Researcher pela (Harvard Law School 2016/2017). Coordenadora Acadêmica do Instituto New Law. Membro do Board da The Future Society/Brasil. Membro do Comitê de Direito Administrativo e Ambiental da Escola da Magistratura Federal da 2a Região (EMARF). Professora de Direito Administrativo do Curso Ênfase. Email: isabelarossicortesferrari@gmail.com ↵ 2. Robôs sociais são aqueles criados para interagir com seres humanos. ↵ 3. FERRARI, Isabela; BECKER, Daniel; WOLKART, Erik Navarro. Arbitrium ex machina: panorama, riscos e a necessidade de regulação das decisões informadas por algoritmos. Revista dos Tribunais, v. 995, set. 2018. ↵ 4. ISRANI, Ellora. Algorithmic due process: mistaken accountability and attribution in State v. Loomis. JOLTdigest. Disponível em: <https://jolt.law.harvard.edu/digest/algorithmic-due-process- mistaken-accountability-and-attribution-in>. Acesso em: 25.10.2017. ↵ 5. ANGWIN, Julia et al. Machine Bias. Pro Publica. Disponível em: <https://www.propublica.org/article/machine-bias-risk- assessments-in-criminal-sentencing>. Acesso em: 25.10.2017. ↵ 6. Loomis, 881 N.W.2d at 754. ↵ 7. DOMINGOS, Pedro. Op. cit., p. 2. ↵ 8. WOLKART, Erik Navarro. Análise econômica e comportamental do processo civil: como promover a cooperação para enfrentar a tragédia da Justiça no processo civil brasileiro. 2018. 835 f. Tese (Doutorado em Direito) – Universidade do Estado do Rio de Janeiro, Rio de Janeiro. ↵ 9. TURING, Alan. Computing Machinery and Intelligence. Mind, New Series, v. 59, n. 236, p. 433-460, out. 1950. ↵ 10. DOMINGOS, Pedro. Op. cit., p. 6. ↵ 11. ASSUNÇÃO, Luís. Machine learning, big data e inteligência artificial: qual o benefício para empresas e aplicações no Direito? LEX MACHINÆ. Disponível em: <https://www.lexmachinae.com/2017/12/08/machine-learning-big- data-e-inteligencia-artificial-qual-o-be>. Acesso em: 25.06.2018. ↵ 12. BRYNJOLFSSON, Erik; MCAFEE, Andrew. A segunda era das máquinas: trabalho, progresso e prosperidade em uma época de tecnologias brilhantes. Rio de Janeiro: Alta Books, 2015. p. 84-85. ↵ 13. BECKER, Daniel; FERRARI, Isabela. A prática jurídica em tempos exponenciais. JOTA. Disponível em: <https://jota.info/artigos/a- pratica-juridica-em-tempos-exponenciais-04102017>. Acesso em: 07.06.2018. ↵ 14. WALTER, Chip. Kryder's Law. Scientific American. Disponível em: <https://www.scientificamerican.com/article/kryders-law/>. Acesso em: 07.06.2018. ↵ 15. RUMERLHART, David E.; HILTON, Geoffrey E.; WILLINANS, Ronald J. Learning Representations by back-propagating erros. Nature, v. 323, issue 9, p. 533, out. 1986. ↵ 16. WOLKART, Erik Navarro. Análise econômica e comportamental do processo civil: como promover a cooperação para enfrentar a tragédia da Justiça no processo civil brasileiro. 2018. 835 f. Tese (Doutorado em Direito) – Universidade do Estado do Rio de Janeiro, Rio de Janeiro, p. 683. ↵ 17. GARDNER. G. G. et al. Automatic detection of diabetic retinopathy using an artificial neural network: a screening tool. British Journal of Ophthalmology, 80, p. 940-944, 1996. Disponível em: <https://www.ncbi.nlm.nih.gov/pmc/articles/PMC505667/pdf/brjopthal00011- 0006.pdf>. Acesso em: 15.06.2018. ↵ 18. Em 2015, por exemplo, experimentos na universidade de Toronto, no Canadá, levaram um único algoritmo, com a mesma rede neural e os mesmos hiperparâmetros, a ter um desempenho de alto nível, 49 jogos diferentes de Atari. Os algoritmos não haviam sido especificamente desenvolvidos para nenhum desses jogos: os únicos inputs recebidos pelo sistema foram os pixels dos jogos captados por sensores, além das recompensas determinadas pela pontuação de cada jogo. ↵ 19. Em algumas situações, algoritmos supervisionados e algoritmos de reforço são utilizados de forma combinada visando melhores resultados. Uma rede neural associando as duas técnicas foi o que permitiu o sucesso do AlphaGo. O jogo chinês de Go se assemelha ao de xadrez mas, enquanto este possui 64 casas, o tabuleiro de Go possui 361. Isso tornou impossível que se replicasse a estratégia utilizada por ocasião da programação do Deep Blue, que fora carregado manualmente com milhares de jogadas e combinaçõespossíveis, usando sua enorme capacidade de processamento para escolher a melhor jogada. Como seria inviável programar previamente todas as 2,1x10170 posições possíveis do jogo, decidiu-se utilizar no AlphaGo uma combinação de reinforced e supervised learning. O início de seu processo de aprendizado correspondia ao estudo supervisionado: humanos escolhiam a informação a ser observada pela máquina – jogadas e posições protagonizadas por grandes jogadores de Go –, controlando esse processo. Depois de o sistema aprender a classificar e valorar essas posições, ele passava para uma fase mais avançada de aprendizado, não supervisionada (reinforced learning), na qual o algoritmo participava sozinho de múltiplos jogos simulados aleatórios e aprendia a fazer as melhores escolhas e a valorá-las de modo preciso (value network). Com isso, o AlphaGO avaliava muito menos posições por jogada do que o Deep Blue, mas o fazia de forma precisa e inteligente, selecionando e valorando suas escolhas de modo muito mais eficiente, graças à sua policy network (responsável pelos critérios de seleção) e sua value network (responsável pelos critérios de valoração das posições escolhidas). ↵ 20. ITO, Joi; HOWE, Jeff. Whiplash: How to survive our faster future. New York; Boston: Grand Central, 2016. p. 240-241. ↵ 21. TUTT, Andrew. An FDA for Algorithms. Administrative Law Review, 83 (2017). Disponível em: [https://ssrn.com/abstract=2747994]. Acesso em: 07.06.2018. ↵ 22. FERRARI; BECKER; WOLKART. Arbitrium ex Machina: panorama, riscos e a necessidade de regulação ds decisões informadas por algoritmos. Revista dos Tribunais, vol. 995, Set / 2018 ↵ 23. BURRELL, Burrel. How the machine ‘thinks:’ understanding opacity in machine learning algorithms. Big Data & Society, 3 (1), p. 1-12, 2016. ↵ 24. O’NEIL, Cathy. Weapons of math destruction: how big data increases inequality and threatens democracy. Nova York: Crown, 2016. ↵ 25. MITTELSTADT, Brent Daniel et al. The ethics of algorithms: Mapping the debate. Big Data & Society, 1-21, jul.-dez. 2016. ↵ 26. BURRELL, Burrel. Op. cit. ↵ 27. MARTIJN, Van Otterlo. A machine learning view on profiling. HILDEBRANDT, Mireille; DE VRIES, Katja (eds.). Privacy, Due Process and the Computational Turn-Philosophers of Law Meet Philosophers of Technology. Abingdon: Routledge, 2013. p. 41-64. ↵ 28. MATTHIAS, Andreas. The responsibility gap: Ascribing responsibility for the actions of learning automata. Ethics and Information Technology, 6(3), 175-183, 2004 ↵ 29. KROLL, Joshua A. et al. Accountable Algorithms. University of Pennsylvania Law Review, v. 165, p. 633-705, 2017. ↵ 30. FERRARI; BECKER; WOLKART. Arbitrium ex Machina: panorama, riscos e a necessidade de regulação ds decisões informadas por algoritmos. Revista dos Tribunais, vol. 995, Set / 2018 ↵ 8. Softwares de tomada de decisão e poder público: estudo de casos e efeitos regulatórios Carlos Eduardo Rabelo Mourão[1] e Davi Teofilo Nunes Oliveira[2] Introdução O presente trabalho tem como objetivo explorar a utilização de tecnologias para a automação de procedimentos e análise de dados, principalmente em iniciativas relacionadas ao poder público, partindo então para análise descritiva de casos notórios, problemáticas e regulações sobre o tema. Em um primeiro momento busca-se, então, realizar uma breve conceituação dos principais termos e definições úteis ao estudo proposto e, a partir disso, realizar o estudo de casos notórios para suscitar a discussão sobre as regulações adotadas acerca do tema no mundo. Para introdução e apresentação do assunto, foram selecionados alguns casos de implementação de processamento automático de dados, visando construir no leitor um panorama do que as instruções normativas buscam regular. O primeiro é o caso COMPAS, software que utiliza um questionário em paralelo ao histórico criminal de reincidentes e os classifica conforme o “risco” que o indivíduo representa para a sociedade. O segundo caso a ser estudado é o Serenata de Amor, um software de código aberto desenvolvido para controle público dos gastos realizados pelos deputados e senadores brasileiros. Por fim, o terceiro caso analisado no presente artigo é o Victor, desenvolvido pelo Supremo Tribunal Federal para verificação dos pressupostos para a interposição de Recursos Extraordinários. Esses casos foram selecionados para demonstrar ao leitor aplicações práticas de aprendizado de máquinas com diferentes objetivos e construções institucionais, com o intuito de, a partir dessa construção narrativa, explorar as iniciativas regulatórias que terão como foco essas tecnologias. Sendo assim, buscar-se-á demonstrar que o uso de aprendizado de máquinas para tomadas de decisões envolve atores multissetoriais, que utilizam essas funcionalidades de formas distintas, mas que causam implicações significativas na vida dos afetados pelo poder decisório. Destaca-se, nessa linha, que os estudos de caso analisados apresentam aplicações práticas de softwares de tomada de decisão para auxílio de atividades de diversas naturezas. Renato Leite ao tratar sobre softwares de tomada de decisão define-os como: “Trata-se de sequências pré-definidas de comandos automatizados que, com base em dados pessoais e não pessoais, chegam a conclusões que podem sujeitar alguém a uma determinada ação, a qual pode ou não ter impacto significativo na sua vida. Em sistemas mais complexos, como os que se valem de aprendizado de máquina, essas sequências pré-definidas podem ser alteradas de acordo com as variáveis usadas como substrato, e também pelas conclusões intermediárias. Essa natureza adaptativa tem se tornado mais comum, graças a complexos sistemas de inteligência artificial e aprendizado de máquina capazes de influenciar as conclusões intermediárias – a ponto de não ser mais possível prever os resultados finais ou entender sua lógica subjacente. Essa opacidade impede que as pessoas entendam e verifiquem se seus dados pessoais são tratados de forma legítima, adequada e proporcional.” Dessa forma, ao discutir softwares de tomada de decisão em suas diferentes possibilidades, é essencial que sejam compreendidos os métodos regulatórios que têm sido adotados pelo mundo sobre o tema, principalmente o direito à explicação nas leis de proteção de dados pessoais. Outro ponto importante é a análise de como o código aberto pode ser uma alternativa para a garantia de direitos e transparência nos códigos utilizados para tomada de decisão. Ademais, resta imprescindível conceituar certos termos relativos às novas tecnologia e inteligência artificial. Russel e Norvig, em seu guia sobre Inteligência Artificial, abordam oito diferentes definições para o termo que são divididas em quatro abordagens distintas. Elas são as seguintes[3]: Pensar Humanamente “Os novos e empolgantes esforços para fazer computadores pensarem… máquinas com mentes, no sentido completo e literal.” (Haugeland, 1985). “[A automação de] atividades que associamos com o pensamento humano, atividades como tomada de decisões, resolução de problemas, aprendizado…” (Bellman, 1978) Pensar Racionalmente “O estudo das faculdades mentais através de modelos computacionais” (Chamiak and McDermott, 1985) “O estudo das computações que possibilitam a percepção, razoabilidade e ação.” (Winston, 1992) Agir Humanamente “A arte de se criar máquinas que performam funções que requerem inteligência quando feitas por pessoas.” (Kurzweil, 1990) “O estudo de como fazer computadores realizarem coisas que, no momento, pessoas realizam melhor.” (Rich and Knight, 1991) Agir Racionalmente “Inteligência Computacional é o estudo do design de agentes inteligentes.” (Poole et. al, 1998) “IA … diz respeito a comportamentos inteligentes em artefatos” (Nilsson, 1998) Essas definições são amplamente estudadas, ainda que não haja uma consolidação definitiva acerca delas. No entanto, algumas são mais adequadas para determinados estudos em detrimento de outras e, no caso do presente trabalho, a definição que mais se adequa aos estudos decaso e aos modelos regulatórios em questão seria a de Bellman. Isso porque, esta definição é diretamente ligada aos procedimentos de tomada de decisão que, em tese, requerem o pensamento similar ao humano. Sem prejuízo à definição adotada, todas as teorias que ligam a atuação de agentes computacionais a modelos de pensamento e ação similares aos humanos (pensar e agir humanamente) entendem como essencial a capacidade da máquina de aprender. Em geral, programas de computador que conseguem extrair padrões das bases de dados, para além de apenas captar e armazenar esses dados, são considerados capazes de aprender. Esse modo de aprendizado não supervisionado é comumente referido como aprendizado de máquina[4], e permite que esses programas avancem a sua atuação a partir de dados armazenados e mesmo criados por eles mesmos. Esse tipo de técnica serve para aprimorar os resultados obtidos pelos programas conforme eles são utilizados. COMPAS, opacidade e o uso de inteligência artificial como suporte de avaliações correcionais Decisões judiciais podem ser compreendidas em seu sentido estrito, como a decisão que encerra um processo judicial, ou em seu sentido amplo, que compreende mais uma série de outras escolhas relevantes ao longo do processo.[5] Essas decisões impactam diretamente a vida dos cidadãos sujeitos aos ordenamentos jurídicos nos quais se inserem os determinados juízos decisórios e, portanto, possuem o dever de serem fundamentadas[6] e balizadas dentro das regras, princípios e precedentes que compõem esses ordenamentos. Aduz-se aqui que processos decisórios devem necessariamente ser motivados e fundamentados e que tal comprovação decorre do caráter racional do procedimento. Decisões serão consideradas em seu sentido amplo, abarcando, então, escolhas relevantes ao processo que não tenham necessariamente o intuito de encerrá-lo. É o caso, por exemplo, de decisões acerca da escolha de progressão de regimes de cumprimento de pena ou do cabimento de determinado recurso interposto perante o STF. Essa necessidade de fundamentação decorre do princípio da segurança jurídica. Segundo Donaldo Armelín, “No plano da atuação jurisprudencial, a previsibilidade das decisões judiciais insere-se para o usuário da jurisdição como um fator de segurança que o autoriza a optar por um litígio ou conciliação. É fundamental que quem busque a tutela jurisdicional tenha um mínimo de previsibilidade acerca do resultado que advirá de sua postulação perante o Judiciário.”[7] Assim, compreende-se por segurança jurídica a previsibilidade do sistema a partir da análise de suas fontes, ou seja, pode-se dizer que um sistema conta com segurança jurídica quando os processos decisórios partem de premissas conhecidas e que garantam, ainda com a elasticidade característica de um processo interpretativo argumentativo, um mínimo de previsibilidade. Em 2009, Tim Brennan e Dave Wells publicaram um estudo acerca do sistema de avaliação correcional utilizado em vários estados norte-americanos[8]. O estudo foca especialmente em um software de avaliação correcional baseado em um questionário que, utilizado conjuntamente ao histórico criminal de ofensores, classifica os acusados pelo sistema judicial norte-americano conforme o risco que eles supostamente representam para a sociedade. Esse software de avaliação é chamado Correctional Offender Management Profiling for Alternative Sanctions – COMPAS -, e é utilizado como suporte para a tomada de decisões relacionadas à condenação, ao tratamento, ao gerenciamento de casos e à probabilidade de reincidência – com impactos significativos na possibilidade de progressão de regime de apenados. Ele se propõe a utilizar teorias consolidadas da criminologia para fundamentar de maneira orientada as avaliações correcionais. Dentre as principais teorias utilizadas pelo programa, estão as teorias do autocontrole, da exclusão social, da anomia e a do controle social.[9] Os parâmetros utilizados nas previsões do COMPAS são as seguintes: Antecedentes Criminais; Histórico de Agressividade; Engajamento em Associação Criminosa; Histórico de Desobediência; Abuso de Substâncias; Problemas Financeiros e Pobreza; Recursos Educacionais e Ocupacionais (ou Capital Humano); Criminalidade na Família; Índice de Criminalidade da Vizinhança; Aborrecimento e Falta de Engajamento em Situações de Lazer; Instabilidade residencial; Isolamento social vs. Suporte social; Atitude Propensa à Criminalidade; Postura Anti-social.[10] A justificativa para a implementação do programa parte de seu enquadramento como um modelo de avaliação correcional de quarta geração. Esse tipo de modelo é caracterizado por utilizar uma seleção mais abrangente de teorias da criminologia, por integrar modelo estatístico mais avançado e por levar em conta mais variáveis e critérios de validação de conteúdo.[11] Em 2010, o Departamento de Correção e Reabilitação da Califórnia fez um estudo[12] para validar o COMPAS e dar início à sua utilização. O estudo considerou o software aceitável para ser utilizado em relação a índices de reincidência como um todo, por ter alcançado uma média de 70% de exatidão. Especificamente em relação a escala de violência, entretanto, os índices de precisão ficaram abaixo dessa marca.[13] O COMPAS, assim como outros softwares de avaliação de risco, já tem sido utilizado em uma série de tribunais norte-americanos[14]. No entanto, ele tem sua validade severamente questionada uma vez que os pressupostos que aparentemente influenciam seus resultados acabam por reforçar estereótipos que marginalizam setores na sociedade. Mais especificamente, o programa tem sido taxado de enviesado em relação à raça e à classe dos ofensores que são submetidos ao seu exame. Vale ressaltar que alguns casos emblemáticos contestaram a legitimidade do sistema de avaliação correcional. O mais paradigmático é o caso de Eric Loomis contra o estado de Wisconsin. Nele, Loomis foi acusado de participação em cinco crimes ligados a um tiroteio e fuga em um carro roubado, sendo que ele confessou participar nos dois menos severos deles – fuga e manejo de um carro sem a autorização do seu dono. A defesa de Loomis protocolou um pedido de relaxamento de sua prisão no tribunal alegando que a decisão que o condenou violava tanto o seu direito a uma sentença individualizada quanto o de ter uma fundamentação precisa que explique a condenação[15]. O tribunal entendeu que não houve prejuízo à sentença, após fazer as devidas ressalvas acerca da necessidade de se proceder com cautela quando da utilização desses mecanismos de avaliação correcional em juízo. Esse entendimento se embasou na hipótese de que o relatório do COMPAS seria apenas mais um dos dados agregados que fundamentaram a decisão e que, se necessário, o juízo pode também optar pela não utilização dele[16]. Um fato que fortalece a insegurança acerca desses mecanismos é a necessidade de inserção de cinco avisos nos presenting investigation reports – PSI (similares ao inquérito policial brasileiro) que contenham avaliações correcionais do COMPAS. São eles: “(…) primeiramente, a ‘natureza proprietária do COMPAS’ previne a divulgação de como a pontuação de riscos são calculadas; em segundo lugar, as pontuações do COMPAS não permitem a identificação de indivíduos específicos de alto risco, uma vez que elas se baseiam em um grupo de dados; em terceiro lugar, ainda que o COMPAS utilize de uma amostragem nacional de dados, ainda não houve um ‘estudo com validação cruzada para a população de Wisconsin; em quarto lugar, estudos questionam se [as pontuações do COMPAS] classificam de maneira desproporcional ofensores que se enquadram em alguma minoria; e quinto, o COMPAS foi desenvolvido especificamente para auxiliar o Departamento de Correções a fazer determinações pós-condenação.[17] Um estudo extenso sobre o viés racial das análises do COMPAS e de outros mecanismos de avaliação correcional utilizados nos Estados Unidos foi realizado pela ProPublica, uma agência de jornalismo independente norte-americana.Esse estudo questionou se os números dos estudos oficiais sobre esses mecanismos condizem com a realidade de sua utilização. O estudo da ProPublica constatou que, na verdade, o nível de exatidão de 70% do COMPAS (que o tornava aceitável e viabiliza seu uso pelos tribunais norte- americanos) era controverso quanto à origem étnica dos ofensores. Se, em dados oficiais, os erros de cálculo do programa eram ligeiramente visíveis, os dados da ProPublica demonstraram o grande percentual de erros de previsão, o que impacta a média da pontuação entre negros e brancos – significativamente maior para aqueles em relação a estes.[18] Entretanto, existe fundada preocupação na simplificação do problema de racial bias das decisões que utilizem o COMPAS[19]. Argumenta-se que, ao transpor essa problemática para um viés dos algoritmos, cria-se um imaginário de que ela pode ser resolvida por meio apenas do aprimoramento dos cálculos e estatísticas envolvidos, quando, na verdade, esse viés racial permeia todo o aparato judicial, da abordagem policial até a condenação dos cidadãos.[20] Para além disso, diversos juristas consideram que os softwares de avaliação correcional não seriam nada mais que uma ferramenta[21] que auxiliaria juízes a fazer um trabalho que eles já desempenham de outras maneiras[22]. Eventuais erros de classificação por parte juízes que utilizam tal ferramenta seriam, portanto, tão negativos (e talvez não tão frequentes) quanto erros de magistrados que não as utilizem. Esse é apenas um dos diversos casos em que o poder judiciário tem utilizado o aprendizado de máquina para auxiliar em tomadas de decisões, o caso demonstra a necessidade da discussão acerca dessas ferramentas e da transparência em sua estruturação e implementação. Deve-se traçar parâmetros claros para evitar violações de direitos humanos, ainda que se defenda a utilização de programas de avaliação correcional como meio de traçar parâmetros objetivamente mais justos para auxiliar decisões. Victor: Inteligência artificial para aumentar a eficiência do Supremo Tribunal Federal O Brasil é um dos países com maiores índices de congestionamento no judiciário do mundo. São cerca de 100 milhões de processos em tramitação e o Poder Judiciário recebe cerca de 30 milhões de novos casos por ano[23]. Ainda que a produtividade média dos magistrados brasileiros seja relativamente alta[24], e tenha aumentado constantemente ao longo dos últimos anos, tal avanço não contém o crescimento dos casos pendentes. Isso faz com que o aumento da eficiência dos tribunais demande mais do que a mera contratação de funcionários ou capacitação de nossa mão-de-obra e se volte para mudanças culturais e tecnológicas. É nesse contexto que surge o Victor, programa baseado em Inteligência Artificial que busca agilizar a tramitação dos processos que chegam à última instância do judiciário brasileiro. Os onze ministros do Supremo Tribunal Federal (STF) foram incumbidos, em 2016, do julgamento de cerca de 140 mil casos[25], o que equivale a uma média de pouco mais de 12 mil casos por ano para cada um dos ministros. Mesmo com um número considerável de servidores nos gabinetes ministeriais, este volume de casos não condiz com o tamanho das equipes e muito menos com as ferramentas disponíveis a elas. Além disso, a adoção de uma nova tecnologia que venha a tornar mais eficiente a dinâmica do STF cria possibilidades para a expansão de seu uso em outros tribunais, uma vez que a validação por parte do Supremo já é suficiente para a administração interna dos tribunais hierarquicamente inferiores. O desenvolvimento do projeto Victor foi realizado por meio de uma parceria entre o STF e a Universidade de Brasília (UnB), notadamente a Faculdade de Direito (FD), o Grupo de Pesquisa em Aprendizado de Máquina (GPAM) da Faculdade de Engenharias do Gama (FGA) e o Departamento de Ciência da Computação (CIC) da universidade. Por ser composta por entidades do Poder Público, foi possível que a parceria se realizasse por meio de um Termo de Execução Descentralizada, nos moldes do decreto nº 6.170/07. Optou-se por essa modalidade devido a dificuldade de se enquadrar serviços de inovação nos parâmetros da Lei de Licitações[26], sendo que o termo consiste em “instrumento por meio do qual é ajustada a descentralização de crédito entre órgãos e/ou entidades integrantes dos Orçamentos Fiscal e da Seguridade Social da União, para execução de ações de interesse da unidade orçamentária descentralizadora e consecução do objeto previsto no programa de trabalho, respeitada fielmente a classificação funcional programática”[27]. O programa se propõe a utilizar de aprendizado de máquina para o agrupamento, classificação, predição e inferência nesse grande volume de dados. O objetivo final do projeto é conseguir identificar os processos que chegam ao STF e são afetados por temas de Repercussão Geral[28]. Ou seja, a finalidade do Victor é acusar quais seriam aqueles processos cuja resolução já tenha sido debatida e padronizada pelo Supremo, agilizando a sua tramitação e dando mais espaço para que os ministros se dediquem ao julgamento de teses inéditas ou que tenham sua validade controvertida de fato . Ao longo do desenvolvimento do projeto, os pesquisadores concluíram de que uma das etapas necessárias para se chegar ao objetivo final já seria de muito valor para o STF: a classificação das peças. Assim, mesmo sem a solução final para o problema mais complexo, que seria a identificação de temas de repercussão geral em novos processos, o sistema foi ao ar e já funciona desde agosto de 2018[29]. A despeito de um potencial ganho de eficiência nos julgamentos do STF a partir da implementação do Victor, há de se ressaltar que o desenvolvimento do projeto não tem contado com a participação efetiva da comunidade jurídica. Construído por uma equipe interdisciplinar da UnB, o sistema já está funcionando – ainda que de maneira restrita – e, conforme avance o seu desenvolvimento, ele deve impactar de maneira cada vez mais decisiva a vida de cidadãos que possuam processos sob jurisdição do Supremo. A constatação de que determinada tese se encontra assentada na jurisprudência por um software, como seria o caso de processos afetados por decisão de Repercussão Geral, pode definir o futuro da causa em litígio de maneira tão direta quanto o próprio COMPAS, software de avaliação correcional citado anteriormente. Além disso, o caráter definitivo dos julgamentos do Supremo pode trazer consequências significativas no caso de decisões influenciadas por eventuais erros de classificação. Segundo o diretor-geral do STF, Eduardo Toledo, o projeto Victor trabalha sob a premissa da absorção da tecnologia pela Administração Pública[30], o que permitirá a abrangência do escopo de atuação do sistema para demais tribunais de justiça do país. Tal afirmativa, ao mesmo tempo que soa como um compromisso de maior abertura no desenvolvimento futuro do projeto, carrega consigo uma promessa de maior abrangência e potencial de opacidade do sistema, caso tal compromisso não seja cumprido. Vale apontar que, até o momento, o projeto Victor possui pouca bibliografia técnica disponível e participação restrita da comunidade acadêmica e jurídica como um todo. Assim, o presente caso demonstra que, mesmo em situações cujo risco de dano ainda não seja tão palpável, como na classificação de processos, o interesse público do acompanhamento do projeto se mostra presente. Operação Serenata de Amor: Transparência e processamento de dados automatizados Caso interessante do uso de aprendizado de máquinas e construção colaborativa é a Operação Serenata de Amor, que buscou criar uma inteligência artificial que fiscalizasse gastos públicos. A Lei nº 12.527/2011[31] regulamenta o direito constitucional para acesso às informações públicas. A lei entrou em vigor no dia 16 de maio de 2012 e busca possibilitar que qualquer pessoa, física ou jurídica possa ter acesso às informações públicas de órgãos da Administração. Dessa forma, a Câmara dosDeputados divulga os gastos feitos pela Cota para Exercício da Atividade Parlamentar (CEAP)[32] – verba que custeia alimentação, transporte, hospedagem e despesas com cultura e assinaturas de TV dos parlamentares. Esse benefício foi estabelecido no Ato de Mesa nº 43 de 2009 e está sob a legislação interna da Câmara dos Deputados. A Câmara disponibiliza a lista de cada um dos gastos, incluindo CNPJ ou CPF do recebedor do dinheiro, em arquivos XML[33]. Pensando em aumentar a eficiência na averiguação desses benefícios, o grupo Data Science Brigade criou a Operação Serenata De Amor[34]. O objetivo da Operação é utilizar aprendizado de máquina para investigar contas públicas e auxiliar no controle dos gastos parlamentares. A ideia surgiu do cientista de dados Irio Musskopf, como forma de empregar a tecnologia para auxiliar no processo democrático, fiscalizando gastos públicos.[35] O nome da operação é oriunda do Caso Toblerone, caso em que uma parlamentar sueca renunciou seu cargo depois de ter sido flagrada comprando chocolates Toblerone na fatura do seu cartão de crédito corporativo[36] Para executar e iniciar a operação foi desenvolvida uma inteligência artificial[37] chamada Rosie, cuja programação permite analisar cada pedido de reembolso dos deputados e identificar a probabilidade de ilegalidade. Rosie é um software que aprende novos parâmetros e aplica os existentes utilizando o aprendizado de máquina, conferindo diariamente cada pedido de reembolso dos deputados e buscando identificar a probabilidade de ilegalidades nesses dados. O código estabelece algumas hipóteses de gastos suspeitos, que compreendem, por exemplo, distância viajada maior, limites da sub-cota superiores aos previstos, compra de bebidas alcóolicas, preços muito altos de refeições, entre outros.[38] A Rosie, em números segundo o último relatório da operação: Notas fiscalizadas 3 milhões Reembolsos suspeitos identificados: 8.216 Suspeitas de refeição mais cara que a média: 2.158 Suspeitas baseadas nos tempos de viagem dos deputados: 792 Suspeitas referentes a empresas irregulares: 5240 Despesas suspeitas por meio de CPFs ou CNPJ inválidos 16 Reembolso de caráter eleitoral 13 Valores suspeitos encontrados por Rosie R$ 3,2 milhões Dados: Relatório Rosie 2017.[39] Toda a tecnologia da Operação Serenata foi construída através de financiamento coletivo e toda a equipe é formada por voluntários que realizam a construção do projeto de modo público e colaborativo. Todo o código é aberto e, como tal, disponibilizado livremente, utilizando o licenciamento livre para a esquematização do produto e a redistribuição universal desse design ou esquema, dando a possibilidade para que qualquer um consulte, examine ou modifique o código. Toda a estrutura da Serenata de Amor pode ser encontrada e baixada livremente no GitHub[40]. Dessa forma, qualquer órgão de combate à corrupção – e, de fato, qualquer pessoa, de qualquer lugar do mundo – pode fazer uso dos algoritmos. O modelo de código aberto adotado no desenvolvimento da aplicação muda fundamentalmente as abordagens e a economia do desenvolvimento de um software tradicional como o caso do COMPAS.[41] Tipicamente, o código aberto é desenvolvido por uma comunidade de programadores distribuída na Internet. Toda participação é voluntária e os participantes não recebem compensação financeira pelo seu trabalho, diferentemente do código proprietário ou fechado. Além disso, todo o código-fonte é disponível ao público. O uso do código aberto em auxílio a tomadas de decisões e fiscalizações levanta muitas questões interessantes e, inclusive, apresenta-se como uma maneira de integralizar as lacunas que uma eventual regulação busque superar, principalmente no que diz respeito ao direito à explicação.[42] O modelo de código aberto consegue estabelecer tomada de decisões ao mesmo tempo que concilia transparência e disponibilidade do código-fonte. Dessa forma, faz-se possível que aqueles que estejam sujeitos às decisões ou procedimentos possam saber quais são as variáveis deste código, quais critérios são levados em consideração no aprendizado de máquina e diversos outros pontos que podem ser observados através da análise do código-fonte aberto para todos. Alternativas legislativas e opacidade – General Data Protection Regulation (GDPR) e Lei Geral de Proteção de Dados Pessoais (LGPD): “Direito à explicação” em decisões automatizadas Com o aumento da capacidade de armazenamento e processamento de dados, temos o surgimento de preocupações na sociedade civil e no Estado, principalmente no que diz respeito à transparência dos códigos e critérios adotados nas tomadas de decisões automatizadas. É nesse contexto que o Regulamento Geral de Proteção dos Dados Pessoais da União Europeia (GDPR)[43] entrou em vigor n o dia 25 de Maio de 2018. A partir de então, o mundo entrou em um novo paradigma de proteção de dados pessoais[44]. Sua abrangência sobre diversos temas fortalecem os argumentos de que o regulamento será utilizado como modelo de regulação para diversos países no mundo. Desde sua concepção, o Regulamento nº 679/2016 busca adequar a Europa a um novo cenário de uso das tecnologias e dos serviços que utilizam internet em suas operações. A lei busca estabelecer padrões para coleta, tratamento e processamento de dados pessoais, criando direitos, deveres e garantias para os usuários e para as empresas que utilizam dados pessoais. Dentre suas diversas provisões, o regulamento trata sobre a tomada de decisão automatizada, em seus artigos 13, 14, 15, 22 e 23, assim como no recital 71. Essas disposições criam limitações para as decisões automatizadas e exigem “explicações” sobre o funcionamento dos algoritmos.[45] Decisões automáticas e sem intervenção humana vão contra a noção de autonomia e personalidade do regulamento europeu[46]. Portanto, a disposição da regulação, ao discorrer sobre o direito à explicação, busca fornecer informações significativas sobre como os dados são utilizados em decisões automatizadas. Inúmeras controvérsias têm sido levantadas sobre quais são as possíveis aplicações desse direito e como ele será colocado em prática. Dessa forma, acadêmicos em todo o mundo têm publicado artigos sobre as implicações desse direito, considerando sua tecnicidade e complexidade.[47]. Segundo a GDPR, se uma pessoa estiver sujeita a “decisão baseada unicamente no processamento automatizado e que produz efeitos legais ou que de maneira similar afete significativamente a vida da pessoa”[48], existe a previsão, a partir de então, do direito à explicação[49]. O direito à explicação, no caso, prevê que sejam concedidas “informações significativas”[50] sobre a “lógica envolvida na decisão”. Tal informação deverá ser facilmente interpretada pelo titular dos dados, sendo possível a sua interpretação por um humano sem conhecimentos técnicos.[51] Essas determinações além de previstas nos artigos 13 e 15 que tratam de direito de acesso, também estão previstas nos seguintes artigos: Artigo 22 (a): estabelece que “todos possuem o direito de não estarem sujeitos a decisões baseadas apenas em automações, incluindo ‘profilização’ ou decisões que produzam efeitos legais similares e que afetem diretamente um cidadão”. Artigo 22 (b): determina circunstâncias para quando decisões automatizadas são permitidas, provendo diferentes proteções para que o titular dos dados possa efetivamente exercer seus “direitos, liberdades e interesses legítimos”. Artigo 23 (c) determina que quando houver decisões automatizadas necessárias ou contratuais, algumas garantias serão estabelecidas para o titular dos dados, incluindo o direito de obter uma intervenção humana em alguma parte do processamento para expressar o seu ponto de vista sobre a decisão. Por fim, a GDPR possui uma gama de recitais,[52] que são orientações para melhor aplicação e interpretação da lei positivada. Recitais não possuem papel normativo, entretanto, serão fundamentais para guiar a aplicação efetiva da lei europeia. O recital 71 incluiponderações relevantes à análise do artigo 22. Além da previsão de que há a necessidade de uma intervenção humana em alguma parte do processo, estabelece que além dessa intervenção existe a garantia de que se possa obter uma explicação sobre a decisão alcançada e ter a oportunidade de contestar tal decisão. [53] Essas garantias suprem, em certa medida, a lacuna contida no direito de intervenção , criticado por ser facilmente contornável. Tal crítica fundamenta-se à partir da tese de que a simples autenticação humana dos resultados obtidos na análise da inteligência artificial seria suficiente para fazer valer as disposições do diploma regulatório, passível de advir, inclusive, dos próprios responsáveis pela decisão. Mesmo que a GDPR garanta o direito à explicação e o de revisão de decisões automatizadas, é importante ressaltar que estes direitos possuem mais restrições no direito europeu do que no brasileiro, que será discutido em breve. O direito previsto no escopo da regulação europeia tem como objetivo contemplar todas as possíveis aplicações que utilizem um software para auxiliar em tomadas de decisões que afetem a vida dos cidadãos. Softwares proprietários e fechados que emitam decisões significativas são diretamente afetados pela regulação. Desde a entrada em vigor do marco regulatório, eles podem ser obrigados a prestar explicações significativas sobre suas aplicações e a lógica por trás dos inputs de seus códigos, bem como a forma como ele interpreta essas informações. Outras interpretações são apontadas acima, que sim, a existência de um direito à explicação é positivada nos artigos 13, 14 e 15 da lei. Por fim, como aponta Renato Leite: “A interpretação em prol da existência de tais direitos visa dar sentido à intenção do legislador, como demonstrado através dos considerandos da GDPR, e também conforme as necessidades oriundas dos atuais modelos de negócio e tecnologias que cada vez mais têm um impacto direto nas nossas vidas, influenciando-a por meio de decisões controladas por algoritmos opacos e obscuros. Garantir tal direito significa influenciar a forma como sistemas são desenvolvidos para deixá-los mais transparentes e justos.”; LGDP Após diversos anos de discussão e elaboração tivemos a aprovação da Lei Geral de Proteção de Dados Pessoais (Lei 13.709/2018) no dia 14 de agosto de 2018. A lei busca trazer um novo arcabouço jurídico e também consolidar mais de quarenta normas setoriais que já estavam positivadas de maneira esparsa no ordenamento brasileiro. Como o presente trabalho não buscará tratar especificamente sobre a LGDP, buscaremos entender e interpretar apenas o artigo 20, que é essencial para a análise de softwares de tomada de decisões automatizada. No artigo é previsto que “O titular dos dados tem direito a solicitar a revisão de decisões tomadas unicamente com base em tratamento automatizado de dados pessoais que afetem seus interesses, incluídas as decisões destinadas a definir o seu perfil pessoal, profissional, de consumo e de crédito ou os aspectos de sua personalidade”. O modelo adotado em relação ao Direito à explicação no Brasil é claramente inspirado no modelo de regulação europeu. Entretanto, o modelo europeu possui ainda menos possibilidades do que o modelo brasileiro, principalmente por não incluir dados anonimizados e por limitar o direito de oposição caso haja consentimento inequívoco ou a execução de um contrato.[54] Mesmo que o modelo brasileiro seja mais amplo que o Europeu, é importante que estejamos atentos para como irá se comportar a Autoridade Nacional de Proteção de Dados e os tribunais, visto que para trazer explicação sobre o funcionamento desses algoritmos, muitas das vezes terá que ser realizado um tradeoff entre o segredo de negócio e as informações que deram determinada decisão automatizada. Conclusão Atualmente muitos são os debates sobre o uso de sistemas de decisão algorítmica em instituições, principalmente aquelas relacionadas ao poder público. Também é notório o aumento do uso de tecnologias computacionais e preditivas no setor privado, organizações da sociedade civil e governos, principalmente em procedimentos e processos de tomada de decisão. Como resultado, discussões acerca de mecanismos de reparação para proteger a sociedade de eventuais danos emergiram tanto no meio acadêmico quanto no político. O presente trabalho não busca exaurir a extensa discussão sobre aprendizado de máquina, inteligência artificial e suas aplicações no poder público. Ele se propõe, no entanto, a suscitar o debate relacionado à individualização dos procedimentos e impactos da utilização destes algoritmos à partir da análise de casos concretos em que já se tem utilizado essas tecnologias para auxiliar a Administração. A adoção do método de estudo de caso tem como objetivo demonstrar aplicações utilizadas em diversos setores da sociedade através dos 3 exemplos selecionados: COMPAS, Operação Serenata de Amor e Victor. Os três casos, mesmo com suas diversas diferenças, demonstram a aplicação de inteligência artificial e aprendizado de máquinas para tomada de decisão relacionadas ao poder público, com impacto em diferentes esferas da sociedade. O primeiro é um exemplo de utilização de uma IA que possui o objetivo de subsidiar os magistrados nas decisões pós-condenação por meio de uma pontuação que leva em conta aspectos objetivos dos ofensores. Entretanto, ela também acaba por ser utilizada em outros tipos de processos decisórios pré-julgamento. O COMPAS não traz elementos suficientes para a compreensão devida da sentença e, ao ter sua utilização extrapolada para outros tipos de decisão, acaba por prejudicar o direito à fundamentação das decisões. Para além disso, seu caráter proprietário mostra-se como um obstáculo para a devida compreensão do mecanismo. Muito embora o argumento de que o enviesamento (bias) do sistema não estaria no COMPAS (mas sim no sistema penitenciário como um todo) seja essencial para a análise, ele não justifica a falta de transparência do modelo. As outras aplicações de IA analisadas não influenciam diretamente as decisões em seu sentido estrito, uma vez que são mecanismos de apoio para a procedimentalização de atividades que são anteriores a essa tomada de decisão. Ainda assim, ambas influenciam diretamente as decisões judiciais em sentido amplo, pois tanto chamar a atenção para os gastos de parlamentares (Serenata de Amor) quanto a distribuição recursos no Supremo Tribunal Federal. No caso do Victor, vale ressaltar que, por ter sua aplicação na última instância decisória do Poder Judiciário, decisões indiretamente afetadas pelo software têm um caráter notadamente definitivo, o que faz com que a situação de eventuais erros de classificação sejam ainda mais delicados. Tais tecnologias tendem a se desenvolver e expandir nos próximos anos. Dessa forma, discussões sobre como conciliar os benefícios advindos da utilização destes programas com a crescente necessidade por transparência são essenciais, de maneira a sopesar os benefícios e os riscos da utilização deles. Esses anseios têm chamado a atenção de Estados, sociedade civil e legisladores, sendo evidenciado através de regulações que têm buscado abranger essa discussão e da criação de institutos como o direito à explicação. Essa garantia é um primeiro passo para se garantir algum nível de transparência no que diz respeito às decisões automatizadas. Entretanto, apenas a regulação não será o suficiente para que tenhamos uma real efetividade da aplicação desse direito e da transparência dessas informações. É necessário um trabalho constante junto à formação da opinião pública em busca de métodos que viabilizem a implementação e fiscalização da transparência desses softwares. Diversas são as aplicações dessas tecnologias e a os métodos para se garantir a efetividade e a transparência das mesmas. Um dos caminhos para gerar maior clareza desse fenômeno perpassa pela discussão sobre código aberto e código fechado. Através dos casos propostos, observa-se que o código abertoestabelece transparência e horizontalidade no desenvolvimento do programa que influencia a tomada de decisões, criando maior segurança jurídica para aqueles afetados por elas. Isso impacta diretamente na proteção de direitos, garantias e transparência sobre quais são os critérios levados em consideração pela aplicação. Por outro lado, especialmente em casos no qual são utilizados softwares proprietários, como o COMPAS, há a necessidade de adaptação para provimento de maior transparência sobre os critérios e métodos empregados. Sendo assim, as regulações de proteção aos dados pessoais, ao disporem sobre o Direito à explicação, buscam disciplinar responsáveis pelo desenvolvimento de códigos que emitam decisões significativas sobre os cidadãos, caso não estejam preparados para prover explicações inteligíveis acerca da estrutura lógica dessa tomada de decisão. Por fim, é necessário levar em consideração que, ainda que exista um trade off entre fomento à inovação e regulação de setores de tecnologia, não se pode deixar que a euforia advinda dos avanços tecnológicos se sobreponha à salvaguarda de direitos básicos dos cidadãos, como o devido processo legal, o direito a decisões individualizadas e a transparência da atuação do poder público e de entidades da sociedade civil. Referências Bibliográficas Livros e capítulos de livros FERRAZ JR, Tércio Sampaio. Introdução ao Estudo do Direito. Técnica, Decisão, Dominação. Editora Atlas S.A. São Paulo, 2003. KAPLAN, Jerry. Artificial Intelligence. Series: What Everyone Needs to Know. Oxford: Oxford University Press, 2016. RUSSEL, Stuart e NORVIG, Peter. Artificial Intelligence, a Modern Approach. New Jersey: Pearson, 2010 Artigos científicos LEITE, Renato. Existe um direito à explicação na Lei Geral de Proteção de Dados do Brasil?. Instituto Igarapé, 2018. AMARAL, Guilherme Rizzo. Efetividade, segurança, massificação e a proposta de um “incidente de resolução de demandas repetitivas”. São Paulo: Editora Revista dos Tribunais Ltda, 2011. CUI, Gregory. Evidence-Based Sentencing and the Taint of Dangerousness, 125 Yale L.J. F. 315 (2016). DE HERT, P.; CZERNIAWSKI, M. Expanding the European data protection scope beyond territory: Article 3 of the General Data Protection Regulation in its wider context. International Data Privacy Law, v. 6, n. 3, p. 230–243, 2016. FARABEE, David et al. California Department Of Corrections And Rehabilitation. COMPAS Validation Study: Final Report. Los Angeles: University Of California, 2010. HARS, Alexander; OU Shaoshong. Working for Free? Motivations for Participating in Open-Source Projects. HARVARD LAW REVIEW. State v. Loomis: : Wisconsin Supreme Court Requires Warning Before Use of Algorithmic Risk Assessments in Sentencing. Harvard Law Review. Cambridge, p. 1530-1537. 17 mar. 2017 HYATT, Jordan M. et al., Reform in Motion: The Promise and Perils of Incorporating Risk Assessments and Cost-Benefit Analysis into Pennsylvania Sentencing, 49 Duq. L. Rev. 707, 723 (2011). JONES, Meg. The right to a human in the loop: Political constructions of computer automation and personhood. SELBST, Andrew; POWLES, Julia. Meaningful information and the right to explanation. Tim Brennan et al., Northpointe Inst. for Pub. Mgmt. Inc., Evaluating the Predictive Validity of the COMPAS Risk and Needs Assessment System, 36 CRIM. JUST. & BEHAV. 21, (2009). WACHTER, Sandra; MITTELSTADT, Brent; FLORIDI, Luciano. Why a right to explanation of automated decision-making does not exist in the general data protection regulation. International Data Privacy Law, v. 7, n. 2, p. 76-99, 2017. Legislação BRASIL. Código de Processo Civil. Brasília, DISTRITO FEDERAL, 2015 BRASIL. Lei n. 12.527, de 18 de nov. de 2011. Lei de acesso à informação. p. 1-33, nov. 2011. Outros textos e documentos ANGWIN, Julia; LARSON, Jeff; MATTU, Surya; KIRCHNER, Lauren. Machine Bias. ProPublica. Disponível em: CÂMARA DOS DEPUTADOS. Dados Abertos – Cota Parlamentar Cota para Exercício da Atividade Parlamentar em Dados Abertos. Cota para o exercício da atividade parlamentar Informações e legislação sobre as cotas para o exercício da atividade parlamentar. Disponível em: <http://www2.camara.leg.br/transparencia/acesso-a- informacao/copy_of_perguntas-frequentes/cota-para-o-exercicio-da-atividade- parlamentar> Acesso em 15/05/2018. NOJIRI, Sergio. Decisão judicial. Enciclopédia jurídica da PUC-SP. Celso Fernandes Campilongo, Alvaro de Azevedo Gonzaga e André Luiz Freire (coords.). Tomo: Teoria Geral e Filosofia do Direito. Celso Fernandes Campilongo, Alvaro de Azevedo Gonzaga, André Luiz Freire (coord. de tomo). 1. ed. São Paulo: Pontifícia Universidade Católica de São Paulo, 2017. PAZZIM, Bruno. Relatório trimestral da operação de amor. Disponível em <https://bit.ly/2x0l5Es> Acesso em: 09/05/2018 https://bit.ly/2GG4DZy https://bit.ly/2x0l5Es SIMPSON, peter. Corruption unit to investigate Mona Sahlin. Disponível em <https://bit.ly/2J2gPZC> Acesso em 08/05/2018 VILANOVA, Pedro. R$ 3,2 milhões em 8.216 reembolsos suspeitos: as métricas do trabalho da Rosie nos últimos dias. Disponível em <https://bit.ly/2IEn6eT> 1. Analista de Gestão de Produto – Jusbrasil. Formado em Direito pela UFMG, com certificação em liderança de Novos Negócios pelo MIT Bootcamps e pela University of Miami School of Law. ↵ 2. Graduando em Direito na Universidade Federal de Minas Gerais (UFMG), concluiu o ensino médio integrado ao curso Técnico em Informática pelo Instituto Federal de Minas Gerais (IFMG). Alumni da Escola de Governança da Internet (EGI) e bolsista do programa Youth@IGF (2017) e Youth@IGF (2018) do CGI.br. ↵ 3. RUSSEL, Stuart e NORVIG, Peter. Artificial Intelligence, a Modern Approach. New Jersey: Pearson, 2010. p. 02. Tradução nossa. ↵ 4. KAPLAN, Jerry. Artificial Intelligence. Series: What Everyone Needs to Know. Oxford: Oxford University Press, 2016. p 27-32. ↵ 5. NOJIRI, Sergio. Decisão judicial. Enciclopédia jurídica da PUC-SP. Celso Fernandes Campilongo, Alvaro de Azevedo Gonzaga e André Luiz Freire (coords.). Tomo: Teoria Geral e Filosofia do Direito. Celso Fernandes Campilongo, Alvaro de Azevedo Gonzaga, André Luiz Freire (coord. de tomo). 1. ed. São Paulo: Pontifícia Universidade Católica de São Paulo, 2017. Disponível em: https://enciclopediajuridica.pucsp.br/verbete/57/edicao- 1/decisao-judicial ↵ 6. Nesse sentido, destaca-se o art. 489, II do Código de Processo CIvil. “São elementos essenciais da sentença: II - os fundamentos, em que o juiz analisará as questões de fato e de direito;” (BRASIL. Código de Processo Civil. Brasília, DISTRITO FEDERAL, 2015.) ↵ 7. AMARAL, Guilherme Rizzo. Efetividade, segurança, massificação e a proposta de um “incidente de resolução de demandas repetitivas”. São Paulo: Editora Revista dos Tribunais Ltda, 2011. Revista de Processo ano 36 v. 196. apud. ARMELÍN, Donaldo. Observância da coisa julgada e enriquecimento ilícito: postura ética e jurídica dos magistrados e advogados. Brasília: Conselho de Justiça Federal/Centro de Estudos, 2003. Cadernos do CEJ 23, p. 292. ↵ 8. Tim Brennan et al., Northpointe Inst. for Pub. Mgmt. Inc., Evaluating the Predictive Validity of the COMPAS Risk and Needs Assessment https://bit.ly/2J2gPZC https://bit.ly/2IEn6eT https://enciclopediajuridica.pucsp.br/verbete/57/edicao-1/decisao-judicial System, 36 CRIM. JUST. & BEHAV. 21, (2009). ↵ 9. Idem. p.3. ↵ 10. Idem. p.34. Tradução nossa. ↵ 11. Idem. p.2. Tradução nossa. ↵ 12. FARABEE, David et al. California Department Of Corrections And Rehabilitation. COMPAS Validation Study: Final Report. Los Angeles: University Of California, 2010. Disponível em: <https://bit.ly/2kfYQ3W> ↵ 13. Idem. p4. ↵ 14. Para uma lista atualizada de todos os estados e respectivos programas de avaliação de risco nos Estados Unidos, acessar o site da Electronic Privacy Information Center (EPIC). Disponível em: <https://epic.org/algorithmic-transparency/crim-justice/> . Acesso em 31 de janeiro de 2019. ↵ 15. HARVARD LAW REVIEW. State v. Loomis: : Wisconsin Supreme CourtRequires Warning Before Use of Algorithmic Risk Assessments in Sentencing. Harvard Law Review. Cambridge, p. 1531 ↵ 16. Id. 1532-1533 ↵ 17. Texto original: “(...) first, the ‘proprietary nature of COMPAS’ prevents the disclosure of how risk scores are calculated; second, COMPAS scores are unable to identify specific high-risk individuals because these scores rely on group data; third, although COMPAS relies on national data sample, there has been ‘no cross-validation study for a Wisconsin population’; fourth, studies ‘have raised questions about whether [COMPAS scores] disproportionately classify minority offenders as having higher risk of recidivism’; and fifth, COMPAS was developed specifically to assist the Department of Corrections in making post-sentencing determinations.” Tradução nossa. HARVARD LAW REVIEW. State v. Loomis: : Wisconsin Supreme Court Requires Warning Before Use of Algorithmic Risk Assessments in Sentencing.. Harvard Law Review. Cambridge, p. 1533. ↵ 18. ANGWIN, Julia; LARSON, Jeff; MATTU, Surya; KIRCHNER, Lauren. Machine Bias. ProPublica. Disponível em: <https://www.propublica.org/article/machine-bias-risk- assessments-in-criminal-sen tencing> Acesso em: 22 de maio de 2018. ↵ 19. Para maior aprofundamento nesse assunto, ler o artigo “Why big-data analysis of police activity is inherently biased”, de William Isaac e Andi Dixon. Disponível em <https://bit.ly/2IY27TI> Acesso em 31 de janeiro de 2019. ↵ 20. Para aprofundar essa discussão, ver o tutorial do Humans Rights Data Analysis Group. Disponível em: <https://bit.ly/2KNKLpU> . Acesso em 19 de maio de 2018. ↵ 21. Jordan M. Hyatt et al., Reform in Motion: The Promise and Perils of Incorporating Risk Assessments and Cost-Benefit Analysis into Pennsylvania Sentencing, 49 Duq. L. Rev. 707, 723 (2011). ↵ 22. Gregory Cui, Evidence-Based Sentencing and the Taint of Dangerousness, 125 Yale L.J. F. 315 (2016). ↵ 23. Justiça em Números 2018: ano-base 2017/Conselho Nacional de Justiça - Brasília: CNJ, 2018. ↵ 24. Segundo dados de 2014, a produtividade média de um juiz brasileiro é cerca de duas vezes maior que a dos italianos e espanhóis, e cerca de quatro vezes maior que a dos portugueses. Disponível em <https://exame.abril.com.br/brasil/por-que-a-justica-brasileira-e- lenta/> . Acesso em 31 de janeiro de 2019. ↵ 25. Supremo em ação 2017: ano-base 2016/Conselho Nacional de Justiça - Brasília: CNJ, 2017. ↵ 26. TOLEDO, Eduardo S. Projetos de inovação tecnológica na Administração Pública. In: FERNANDES, Ricardo Vieira de Carvalho; CARVALHO, Ângelo Gamba Prata de (Coord.). Tecnologia jurídica & direito digital: II Congresso Internacional de Direito, Governo e Tecnologia – 2018. Belo Horizonte: Fórum, 2018. p. 83-87. ISBN 978- 85-450-0584-1. ↵ 27. BRASIL. DECRETO Nº 6.170, DE 25 DE JULHO DE 2007. Dispõe sobre as normas relativas às transferências de recursos da União mediante convênios e contratos de repasse, e dá outras providências., Brasília, DF, julho 2007. Disponível em: <http://www.imprensanacional.gov.br/mp_leis/leis_texto.asp? ld=LEI %209887> . Acesso em: 12 out. 2017. ↵ 28. SILVA, Nilton Correia da. Notas iniciais sobre a evolução dos algoritmos do VICTOR: o primeiro projeto de inteligência artificial em supremas cortes do mundo. In: FERNANDES, Ricardo Vieira de Carvalho; CARVALHO, Ângelo Gamba Prata de (Coord.). Tecnologia jurídica & direito digital: II Congresso Internacional de Direito, Governo e Tecnologia – 2018. Belo Horizonte: Fórum, 2018. p. 89-94. ISBN 978-85-450-0584-1. ↵ 29. [29] “Ministra Cármen Lúcia anuncia início de funcionamento do Projeto Victor, de inteligência artificial”. Disponível em <http://www.stf.jus.br/portal/cms/verNoticiaDetalhe.asp? idConteudo=388443> . Acesso em 31 de janeiro de 2019. ↵ 30. Ver TOLEDO, Eduardo, supracitado na nota de rodapé 24, p. 86. ↵ 31. BRASIL. Lei n. 12.527, de 18 de nov. de 2011. Lei de acesso à informação. p. 1-33, nov. 2011. Disponível em: <https://bit.ly/2LkwxxK> . Acesso em: 30 de Janeiro 2019. ↵ 32. Cota para o exercício da atividade parlamentar Informações e legislação sobre as cotas para o exercício da atividade parlamentar. Disponível em: <https://bit.ly/2GG4DZy> Acesso em 30/01/2019. ↵ 33. Dados Abertos - Cota Parlamentar Cota para Exercício da Atividade Parlamentar em Dados Abertos. Disponível em: <https://bit.ly/1O0tQxX> Acesso em 29/01/2019. ↵ 34. Serenata de Amor. Disponível em: <https://serenata.ai/about/> Acesso em 29/01/2019. ↵ 35. Código fonte do software. Disponível em: <https://bit.ly/2ICVUZP> Acesso em 29/01/2019. ↵ 36. SIMPSON, Peter. Corruption unit to investigate Mona Sahlin. Disponível em <https://bit.ly/2J2gPZC> Acesso em 29/01/2019. ↵ 37. Segundo o próprio site da operação a ferramenta é denominada como robô e inteligência artificial. Ver mais <https://serenata.ai/about/> Acesso em 29/01/2019. ↵ 38. PAZZIM, Bruno. Relatório trimestral da operação de amor. Disponível em <https://bit.ly/2x0l5Es> Acesso em 29/01/2019. ↵ 39. VILANOVA, Pedro. R$3,2 milhões em 8.216 reembolsos suspeitos: as métricas do trabalho da Rosie nos últimos dias. Disponível em <https://bit.ly/2IEn6eT> Acesso em: 30/01/2019. ↵ 40. Mais informações em < https://github.com/datasciencebr/serenata-de-amor> ↵ 41. HARS, Alexander; OU Shaoshong. Working for Free? Motivations for Participating in Open-Source Projects, Disponível em <https://bit.ly/2LmTVL9> ↵ 42. Idem. ↵ 43. A sigla em inglês utilizada nas discussões acadêmicas e nos artigos internacionais é GDPR, correspondente à General Data Protection Regulation. Por essa razão, será essa a sigla adotada neste artigo. Em portuguê s, a sigla corresponde à RGPD. UNIÃO EUROPEIA. Regulamento N.2016/679 Geral de Proteção dos Dados Pessoais. Disponível em: <https://gdpr-info.eu/>. Acesso em: 06/05/2018. ↵ 44. DE HERT, P.; CZERNIAWSKI, M. Expanding the European data 44. DE HERT, P.; CZERNIAWSKI, M. Expanding the European data protection scope beyond territory: Article 3 of the General Data Protection Regulation in its wider context. International Data Privacy Law, v. 6, n. 3, p. 230–243, 2016. ↵ 45. SELBST, Andrew; POWLES, Julia. Meaningful information and the right to explanation. Disponível em <https://bit.ly/2GFViRu> Acesso em: 27/01/2019. ↵ 46. JONES, Meg. The right to a human in the loop: Political constructions of computer automation and personhood. Acesso em: 28/01/2019 ↵ 47. Para ver mais sobre essas discussões, c.f.: WACHTER, Sandra; MITTELSTADT, Brent; FLORIDI, Luciano. Why a right to explanation of automated decision-making does not exist in the general data protection regulation. International Data Privacy Law, v. 7, n. 2, p. 76- 99, 2017 e SELBST, Andrew D.; POWLES, Julia. Meaningful information and the right to explanation. International Data Privacy Law, v. 7, n. 4, p. 233-242, 2017. ↵ 48. Artigos 13-15 (tradução literal). ↵ 49. Em inglês o termo é “Right to Explanation”. Optamos adotar a tradução “Direito à explicação”. ↵ 50. Diversas discussões têm sido levantadas sobre qual seria o significado do termo “informações significativas”. O texto em alemão do GDPR usa a palavra “Aussagekra¨ftige”, o texto em francês refere-se a “informações úteis”. Essas formulações invocam noções de utilidade, confiabilidade e compreensibilidade. Estes conceitos são relacionados, mas não idênticos, sugerindo que um sistema flexível e de abordagem funcional será mais apropriado para a interpretação do termo “significativas”. ↵ 51. SELBST, Andrew; POWLES, Julia. Meaningful information and the right to explanation. Disponível em <https://bit.ly/2GFViRu> Acesso em: 28/01/2019. ↵ 52. Ver mais em <https://gdpr-info.eu/recitals/> ↵ 53. Idem. ↵ 54. LEITE, Renato. Existe um direito à explicação na Lei Geral de Proteção de Dados do Brasil?. Instituto Igarapé. Disponível em: <https://igarape.org.br/wp-content/uploads/2018/12/Existe-um- direito-a-explicacao-na-Lei- Geral-de-Protecao-de-Dados-no- Brasil.pdf> ↵ 9. Artificial intelligence in government: creating a framework for transparency and accountability LauraNathalie Hernández Rivera[1] 1. Transparent Digital Governments New technologies are progressing rapidly and reaching many aspects of society and our lives. In the same manner, AI will likely continue to develop and increase its uses and applications, both in the private and public sector. The use of AI by governments could increase in the following years with the aim of delivering effective public services to address its citizens’ demands[2]. In general, governments should have the responsibility to show how the implementation of technology benefits the public interest. A transparent public administration shows the commitment to democratic values and the enforcement of rights, and demonstrates a responsible and ethical government. Hence, adequate regulation and implementation of technology should be based on transparency and accountability processes. For example, governments should allow consumers and citizens to have access to information about the processing of their data; establish accountability measures to empower citizens against automated processes; and should let access to the terms of agreements signed between public and private entities in the use and implementation of AI[3]. That is, why transparency represents a means for citizen participation, monitoring, control, and access to information on innovation processes in the public sector. In Brazil, governmental entities have set their eyes on AI; some even have already implemented it. Next, a summary list of examples of AI in the public sector in Brazil: a) the use of facial recognition systems at customs[4] for efficiency in tax collection: ‘SISAM’, ‘PGFN Analytics Tax assessment’; b) the use of AI in the Judicial System: ‘Victor’[5]; c) ‘Turmalina’[6], a project that has the objective to use AI for government transparency and control of public revenue and expenditure; d) Facial recognition systems for policing[7]. However, there still is no policy or regulation for transparency and accountability of any of the implementation processes of AI in Brazil[8]. Why should this be a concern or an issue? There are many examples that prove that technology is not harmless, and is, therefore, susceptible to affect rights, democratic processes, reinforce preconceptions, and increase the social gap. In the absence of proper regulation, all of the latter will depend on how technology is created, implemented or used by governmental entities. The lack of adequate governance of technology could harm the efforts of implementing governmental digital agendas for the delivery of public services. For example, the implementation of facial recognition systems, and the automation of public decisions implemented by the government, many times, lack the necessary counterweights and the adequate multidisciplinary discussion regarding its ethical and legal effects. The absence of regulation of AI means that there is also the absence of the checks and balances over the government’s powers. Therefore, it is fundamental to create the mechanisms that will determine the limits and responsibility in the implementation of AI as input for trust in innovation, and as a mechanism of participation and counterbalance of society. The latter could help to promote open, transparent and accountable digital governments; and help build confidence in AI as a tool for the delivery of better public services, without infringing human rights. This paper considers it urgent to discuss the challenges and necessary measures, for building a framework for the responsible implementation of AI in the public sector. Without the intention of being exhaustive, this paper will address next some of the challenges and measures for the implementation of AI systems in the public sector for building a regulatory framework based on transparency, human rights, and accountability for AI governance. 2. AI for government effectiveness: concerns and challenges Governments are increasingly interested in using big data and AI systems to deliver effective public services and better policy. A key aspect is the collection of data of its citizens. Estonia represents one of the best examples of countries that are collecting data to improve their public services (i.e., tax collection, health services, voting). For example, improving public services by building e-governments could favor the indexes of a country’s competitiveness and economic growth, fight against corruption and bureaucracy. Other countries in Latin America are also implementing a digital agenda, as a strategy to improve the competitiveness and performance of their governments[9]. The use of AI-driven solutions in government can help to alleviate the burden of managing, collecting and analyzing large amounts of information. AI-solutions adapted to a government’s needs can improve the efficiency of public services better than if they were carried out by a human, especially repetitive tasks such as the processing of large amounts of data. Also, there is a higher probability of the accurateness of the results processed by AI. In simple words, AI can contribute to lessening the workload in the public administration and improve public services. AI surpasses human performance and capacities in many tasks. Nevertheless, some of these tasks still require a ‘human approach’. Technologies should allow humans to dedicate to other jobs that were not solved before due to the lack of time or resources. In other words, the automation of tasks – that is to say those that are repetitive, and that can be executed flawlessly and more effectively by an AI system- will allow a person to dedicate their time to more complex tasks, or to tasks that require human intervention. For example, issuing judicial or administrative decisions go beyond the mere processing and analysis of greats amounts of data; these type of decisions require a holistic approach (social, legal, human), and will still require human supervision or intervention. In other words, although the automation of tasks and decisions represents an advantage for the delivery of effective services, it is still necessary to verify some of the results given by AI, to certify that they follow human values. Well designed, regulated and properly implemented AI tools, may contribute to improve the effectiveness of public services and to produce more neutral and transparent public decisions. However, it is necessary to understand how the technology works; its learning capacities; how these capacities can improve in time; how information is processed; what type of data feeds AI systems, and how this affects the results it produces. The accuracy and quality of the data; bias and opacity of algorithms; surveillance and oppression; data protection and information security are some of the challenges that this paper identifies and considers fundamental in the discussions regarding regulation and implementation of AI systems in governments. The information that serves as input for AI could be biased, unreliable or inaccurate. This could also be the data helps train AI . AI systems execute a probabilistic activity, where they collect, classify, evaluate and predict results. That is to say, although it can produce results more accurately than those of a human, there could be situations where AI will not have a better solution than that given by a human, or it may produce unexpected or unreliable results. Therefore, if the data that train the AI is not accurate or reliable, there is a likelihood that the results will lack quality, reliability or even fairness. In these cases, human intervention may be necessary to determine whether the solution given by AI systems represents human values. Therefore, regarding data automation processes and predictions, it is essential that AI systems use adequate, relevant and accurate data to provide the proper and desired solutions or predictions. That is to say, that the quality and precision of the data that serves as input to the AI is fundamental to determine the qualityof the probabilistic results. The latter could determine the quality, trust and effectiveness of the solutions sought to solve in governments. The learning capacity of algorithms helps improve its analysis, precision, and prediction capacities. Nevertheless, AI can still get ‘confused or make mistakes’[10]. The technology is a work-in-progress, not only because the technology developed fairly recently but also because its algorithms continue to improve in time. Since AI can produce results that do not represent human values; imprecise or biased outputs; or that produce negative consequences in society, it is vital to regulate AI accordingly to the applicable legal frameworks, policies or judicial decisions. The use of facial recognition systems in the private and public sector is increasing; however, its regulation has not been developed yet. Although the technology is capable of creating patterns and processing large amounts of data, it can be imprecise even in the simple analysis or tasks. Facial recognition systems already produced inaccurate or erroneous results[11]. Dealing with imprecise and unregulated systems that use sensitive biometric data is a concern. As this paper mentioned before, Brazil is already using facial recognition for inspection and security in airports, customs, and cities. Regulating and creating mechanisms to correct potential failures of the technology should be a priority in the implementation of AI in the public sector. It is essential to understand the limitations of this technology, especially when its effects may hinder civil rights and liberties. For example, in the State v. Loomis case[12], the court sentenced Eric Loomis using a commercial AI-tool to determine the risk of reoffending. Mr. Loomis lost his liberty, and could not challenge the automated decision due to proprietary rights of the risk-assessment algorithms. The limitation of civil rights by AI systems leads to the need to create measures to contest public decisions that rely on the results produced by this technology. In other words, the use of algorithms in decision-making processes can affect, unfairly, the rights of citizens; therefore, citizens should have the right to contest and access the necessary information related to automated public decisions to guarantee due process. Information security and privacy is also a great challenge for the implementation of AI in the government. There should be more information on the cybersecurity measures used for protecting the systems itself, and for protecting the integrity, quality and confidentially of the data; especially personal identifiable information, and sensitive information. On another hand, when discussing privacy and data protection, it is crucial to obtain legitimate consent for the collection and processing of personal data. In other words, a legitimate and specific consent represents the authorization of the owner of the information to have its information processed by third parties. To comply with that, there should be enough information to the public about the collection and handling of such data to legitimize the government’s use of the data to feed AI systems. In other words, governments should inform the public the purposes or rationale of using the data; and create the measures to allow access to, the analysis, and challenge the information processed by AI systems. Finally, the major challenge is to create mechanisms to inform the public about the use and implementation of AI systems, and the measures that will promote accountability in the public sector. This is even more important when considering that these technologies can potentially affect civil rights and liberties. As this paper will address next, AI Governance measures based on transparency and accountability could help to build trust in governments and build trustworthy AI systems. 3. Transparency-related reflections Discussions about AI ethics need to move forward to regulation, accountability, and transparency. The efforts in making AI less biased do not lessen some of the challenges discussed before, such as the dangers of the use of AI as “oppressive and continual mass surveillance”[13] systems; or the inherent risks regarding the collection of mass amounts of information and sensitive information such as biometrics[14]. Governments should be assessed by the effectiveness, quality, publicity, accessibility, and legitimacy of its actions and initiatives. Transparency allows social participation and accountability as a counterbalance of a government’s power. Broadly, there are two ways – or ‘categories’- for governmental transparency and access to information: through proactive and demand-driven[15] instruments. Governments can be proactive by making available to the public and disseminating, information about a government’s activity; while “demand-driven” refers to the institutional commitment of responding to a citizen’s requests of information that is not available or accessible. In this sense, there should be a counterbalance from the public to challenge the criterions –ethical, legal- considered in the process of implementing AI in the public sector. Consequently, proactive and demand-driven transparency measures could “humanize” the processes where AI intervenes. In other words, creating these measures represents an opportunity to explain AI in a “human way” so that it encourages the participation and control of civil society. The lack of regulation could limit due process, and generally, leads to insecurity in automated decisions, and in AI. A way of approaching AI regulation is by discussing the challenges and limits on the use of these systems, and by creating the mechanisms for transparency and accountability of governmental entities. Previously, this paper presented some of the challenges of AI systems; this paper lists below some of the transparency and accountability measures that could contribute to a responsible implementation of AI in the public sector. The measures that this paper presents aims to promote publicity, accessibility, and legitimacy of the actions and initiatives of governments in the implementation of AI through a) cross-sector collaboration; b) consented, necessary and reliable data; c) waving trade secrecy: auditable and explainable AI; d) contesting automated public decisions; e) security and accountability. a. Cross-sector collaboration The implementation of AI in the government should be a discussion, as far as possible, open to the public and based on democratic, multidisciplinary procedures and according to standards based on human rights. The latter could encourage participation, control, and access to information on innovation processes in the public sector. It is important to view cross-sector collaboration as a virtuous governance model, such as the Internet Governance multistakeholder model. The multisectoral or cross-sector models help overcome regulation challenges of new technologies. For instance, it requires the participation of parties that represent different sectors and interests, and that contribute with their experience to create a holistic approach for this type of processes. In the delivery of public services, governments should ally themselves with all the stakeholders to achieve full and trustable integration of AI, as is the case of the UK Government Industrial Strategy[16], which takes a cross-sectoral approach to integrate AI into the public. This approach encourages compliance of regulations and observation of the public and therefore is crucial in AI regulation. In general, encouraging cross-sector collaboration in the use, creation, and implementation of AI in the public sector could serve for two purposes: to overcome challenges that require a multisectoral approach; and second, to democratize the integration of AI by including the public interest as a counterbalance for government power. b. Consented, necessary and reliable data Governments should not collect unconsented, unnecessarydata or unreliable data. More importantly, governments should not implement unreliable automation systems or AI that has the potential to limit or restrict rights and liberties. As stated previously, one of the challenges of AI implementation is that over time, these systems, and particularly algorithms, reflect the inputs – the training data- used to develop such systems. For example, if the system’s inputs are biased (regarding gender, race, class[17]) the outputs will probably reflect such problematic. How can it be assessed the reliability of the data used in AI that has already been implemented by governments? In other words, what are the actual measures to access to such information, to try to solve the issue of algorithmic opacity and data reliability of AI systems in the government? Data protection laws establish the purposes, limits, quality, and types of uses allowed of the data that is collected. The collection of data through this type of technology should require the express, informed, current, unequivocal consent of the owner of the data. For instance, the ‘mere public notice’ that personal data is being treated is not enough. Thus, given the dangers of mass surveillance, and on another hand, considering the duty of governments to ensure due process and the rule of law, bypassing the requirement of getting the consent to process information by AI systems is questionable and should not be the rule. On the contrary, there should be a “right to reject the application of these technologies in both public and private contexts”[18]. For instance, Brazil recently approved its general data protection law. Consequently, the Brazilian Government should implement adequate measures for the treatment of personal data, such as the restriction on the collection of unnecessary, unconsented or unreliable data through AI systems implemented by governmental entities. How to determine if these measures have been created and implemented for an adequate treatment of personal data? Through public instruments that allow access to information on the operation of these systems, and on the data collection process. c. Waving Trade Secrecy: Auditable and explainable AI There is a real concern about opacity and biased data that may exacerbate discrimination or contribute to unreliable results. A government agency should be capable of understanding the possible outcomes of these technologies before implementing them. More importantly, governmental entities have the responsibility to create all the measures needed to ensure that technologies do not produce adverse effects on society, and does not infringe human rights. Auditing algorithms could help overcome the issue of opaque, discriminatory and biased AI[19]. However, algorithm auditing is not a simple task. To audit an algorithm, it requires understanding how algorithms work; how they are designed, and more importantly, acknowledge their capacity to improve or learn in time. Auditable and explainable AI requires compliance of all the applicable regulations, and consideration of how private and public interests are weighted, to have access to the necessary information of interest to the public, without unprotecting private interests that may be affected. In that sense, another significant challenge is ownership rights and trade secrecy of algorithms. In that sense, there are several issues that still need to be analyzed and answered. For example, who owns the rights over these technologies, and therefore can authorize an audit? Who is responsible for correcting the undesired outcomes of algorithms? What should be the limits on such audit? Who should conduct such an audit? What type of access will the auditors have? What type of information will the public have access to? Understanding and having access to the ways AI processes information and predicts or delivers outcomes is challenging[20]. How can a solution to this problem be addressed? Algorithmic transparency, accountability, and disclosure of code[21] can contribute to the solution. The latter measures demand the waiver of trade secrecy and other legal claims[22] to audit AI systems, and assess potentially biased algorithms or contest public decisions. d. Contesting automated public decisions As presented before, the mathematical and probabilistic results of AI systems are not always perfect. Perhaps, there will be times when human decision-making will be better than the decisions made by technology. Unexpected scenarios should open the door to human intervention to audit AI and to contest automated public decisions. On the other hand, a full exercise of the right to due process requires access to information. A government that practices active transparency, and creates an infrastructure that allows access to information regarding automated public decisions will be fundamental in a transparent and accountable digital government. In other words, it is consistent with due process to open the possibility of exercising a right to contest automated public decisions. The possibility of challenging automated decisions opens up the possibility of remedying civil rights. It is not the intention of this paper to infer mistrust in all automated decisions. As presented before, many times, AI systems are capable of producing results more effective, faster and more accurate than a human produces. However, having access to information to challenge an algorithmic output that resulted in the restriction of civil rights or liberties is a matter of public interest. Having such access allows the exercise of the right to defense, and consequently the right to due process. Consequently, in order to contest automated decisions and guarantee due process, it is compulsory the creation of the proper judicial and procedural mechanisms to audit AI systems and allow human intervention when necessary. e. Security and accountability When implementing AI, governments should have an ethical and legal responsibility to inform the public about the origins of the technology. For example, information such as the legality and legitimacy in obtaining the data to train the algorithms; the human or economic resources and burdens that contributed to the development of the technology, and information that allows the public to understand the purpose for which the technology was created. Learning about the history of the systems, the functioning details, and the structure of all the components of technologies such as AI is essential to delivering a better audit for full accountability. This is known as a “full stack supply chain“[23]. Having access to information or details about AI systems could be relevant to understand the origin of the data that feeds the algorithms; learn the operation of structural components and levels of protection; understand cybersecurity measures that will prevent unauthorized access to systems and data. Overall, having access to the history and the details on the operation of AI systems could contribute to accountability by facilitating the measures to determining the degree of government compliance with applicable regulations[24], in either the creation, implementation, or use of the technology. At the end, an efficient and responsible public administration is not only the one that modernizes its services and carries out tasks in less time; but also one that improves the lives of its citizens, and improves the efficiency of public services through the use and implementation of tech tools such as AI, through proper accountability mechanisms. Considerations Governments have the responsibility of guaranteeing and protecting rights at all times. Innovation and modernization of the public sector through the implementation of AI requires the determination of transparency and accountability measures in all the stages and processes from the creation, use, and implementation of such technology. The use of AI in the government can help improve the efficiency of public services, but regulation before theimplementation should be mandatory. Ethical debates regarding the use of AI need to move forward to regulation, accountability, and transparency for its implementation in the public sector. For many years, the discussion on AI focused on the establishment of ethical parameters to address the problems related to this type of systems. Also, governments should promote publicity, accessibility, and legitimacy of the actions and initiatives regarding the implementation of AI in the public sector through cross-sector collaboration; waving trade secrecy of algorithms; creating measures to contest automated public decisions to enforce due process and creating accountability measures based on human rights standards. Although AI surpasses human capacities in many ways, it also has limitations. Policymakers and governments should acknowledge the latter, and create the necessary measures to respond to these limitations. That is why regulation and the implementation of AI in government requires cross-collaboration, to allow cooperation between stakeholders. Proper regulation of AI is fundamental so that governments can seize the advantages of such technologies. That is where transparency and accountability can play a significant role. Transparency and accountability serve as a counterbalance for the government’s power on decision-making, which could contribute to the enforcement of rights. Creating barriers to transparency[25] could harm trust in AI. It could also hinder the participation of civil society, and naturally, contribute to the lack of trust in governments. Unregulated disruption of technology[26] can harm societies and civil rights. That is why it is crucial creating transparency measures for the implementation of AI, to ensure the technology is not used to harm civil liberties. A transparent regulation and implementation of AI in government will help build trust. Establishing clear parameters for AI governance helps to build trust in these technologies; trust in the government, and contributes to the effectiveness in the delivery of services and policy. References AI NOW INSTITUTE. AI Now Report 2018. Available: <https://ainowinstitute.org/AI_Now_2018_Report.pdf> Acessed: 18 May 2022. BANCO INTERAMERICANO DE DESENVOLVIMENTO. Governos que servem: inovações que estão melhorando a entrega de serviços aos cidadãos. Available: <https://publications.iadb.org/bitstream/handle/11319/7971/Governos-que- servem-inovacoes-que-estao-melhorando-a-prestacao-de-servicos-aos- cidadaos.PDF?sequence=8&isAllowed=y> Acessed: 18 May 2022. BRASIL, PRESIDÊNCIA DA REPÚBLICA. Lei Nº 13.709, de 14 de agosto de 2018. Available: http://www.planalto.gov.br/ccivil_03/_ato2015- 2018/2018/Lei/L13709.htm Acessed: 18 May 2022. BRASIL, PRESIDÊNCIA DA REPÚBLICA. Lei nº 12.527, de 18 de novembro de 2011. Available: http://www.planalto.gov.br/ccivil_03/_ato2011- 2014/2011/lei/l12527.htm Acessed: 18 May 2022. BRASIL, Receita Federal. Available: http://idg.receita.fazenda.gov.br/noticias/ascom/2017/novembro/sistema-de- reconhecimento-facial-da-receita-federal-e-destaque-em-revista-internacional. Acessed: 18 May 2022. BRASIL, TCE. TCE expõe evolução de ferramentas para controle fiscal e social dos gastos públicos. Available: http://tce.pb.gov.br/noticias/tce-expoe-evolucao- de-ferramentas-para-controle-fiscal-e-social-dos-gastos-publicos Acessed: 18 May 2022. IEEE. The IEEE Global Initiative for Ethical Considerations in Artificial Intelligence and Autonomous Systems. Available: https://standards.ieee.org/content/dam/ieee- standards/standards/web/documents/other/ead_general_principles.pdf Acessed: 18 May 2022. FOX, J. The uncertain relationship between transparency and accountability. Available: DOI 10.1080/09614520701469955 Acessed: 18 May 2022. GASSER, U., ALMEIDA, V. 2017. A Layered Model for AI Governance. IEEE Internet Computing 21 (6) (November): 58–62. Available: DOI:10.1109/mic.2017.4180835. Acessed: 18 May 2022. JAMBEIRO FILHO, Jorge. Inteligência Artificial no Sistema de Seleção Aduaneira por Aprendizado de Máquina. Available: https://www.researchgate.net/publication/291353182_Inteligencia_Artificial_no_Sistema_de_Selecao_Aduaneira_por_Aprendizado_de_Maquina Acessed: 18 May 2022. KROLL, J. A., HUEY, J….Accountable Algorithms. University of Pennsylvania Law Review, Vol. 165, 2017 Forthcoming; Fordham Law Legal Studies Research Paper No. 2765268. Available: <https://ssrn.com/abstract=2765268> Acessed: 18 May 2022. LIU, H.W., LIN, C.F., CHEN, Y.J. Beyond State v. Loomis: Artificial Intelligence, Government Algorithmization, and Accountability. International Journal of Law and Information Technology, Forthcoming. Available: <https://ssrn.com/abstract=3313916> Acessed: 18 May 2022. MIKHAYLOV, S.J.; ESTEVE, M.; CAMPION, A. Artificial intelligence for the public sector: opportunities and challenges of cross-sector collaboration. Published: 06 August 2018. Available: <https://doi.org/10.1098/rsta.2017.0357> Acessed: 18 May 2022. RASO, F., HILLIGOSS, H…. Artificial Intelligence & Human Rights. Available: <https://cyber.harvard.edu/publication/2018/artificial-intelligence-human- rights> Acessed: 18 May 2022. UNITED NATIONS. E-government knowledgebase. Available: <https://publicadministration.un.org/egovkb/en-us/Data/Compare-Countries> Acessed: 18 May 2022. After a year of tech scandals our 10 recommendations for AI. Available: <https://medium.com/@AINowInstitute/after-a-year-of-tech-scandals-our-10- recommendations-for-ai-95b3b2c5e5> Acessed: 18 May 2022. Amazon Is Pushing Facial Technology That a Study Says Could Be Biased. Available: <https://www.nytimes.com/2019/01/24/technology/amazon-facial- technology-study.html> Acessed: 18 May 2022. Artificial Intelligence Hits the Barrier of Meaning. Available: <https://www.nytimes.com/2018/11/05/opinion/artificial-intelligence-machine- learning.html? fbclid=IwAR0axrbbKo1CD5fBLAGUQA6XneTeeletA9Bk9xOPDUqcZdflPnHXHfdzk30> Acessed: 18 May 2022. China’s tech giants want to go global. Just one thing might stand in their way. Available: <https://www.technologyreview.com/s/612598/chinas-tech-giants- want-to-go-global-just-one-thing-might-stand-in-their-way/> Acessed: 18 May 2022. Decreto que amplia cargos que podem atribuir sigilo ultrassecreto à informação pública é preocupante e contraria a LAI. Available: <http://artigo19.org/blog/2019/01/24/decreto-que-amplia-cargos-que-podem- atribuir-sigilo-ultrasessecreto-a-informacao-publica-e-preocupante-e-contraria- a-lai/?fbclid=IwAR1yLWwYkKzTOpw4IODANOaAVu7osalocseISbrT0whU_A4ht- H45_6Ky4c> Acessed: 18 May 2022. Editor’s letter: China’s technology ambitions—and their limits. Available: <https://www.technologyreview.com/s/612572/editors-letter-chinas- technology-ambitions-and-their-limits/> Acessed: 18 May 2022. Face recognition tech presents a surveillance issue and Amazon is running amok. Available: <https://www.usatoday.com/story/opinion/2019/01/20/face- recognition-surveillance-issue-amazon-google-microsoft-column/2581992002/> Acessed: 18 May 2022. Facial’s Recognition Growing Adoption Spurs Privacy Concerns. Available: <https://www.wsj.com/articles/facial-recognition-goes-mainstream-drawing- concerns-1542623401?fbclid=IwAR04m-ugMsr9rJgXxYFo5gPo7Ec- qK0llosJoP0eb3vrdW5seJOKbIz3heA> Acessed: 18 May 2022. Machine Learning Confronts the Elephant in the Room. Available: <https://www.quantamagazine.org/machine-learning-confronts-the-elephant- in-the-room-20180920/? fbclid=IwAR3HT37tpLRfcwUz2xpCeif0GItSiAAnpwHOSCa7X4PHlXO2NoQJHH0O80s> Acessed: 18 May 2022. Never mind killer robots—here are six real AI dangers to watch out for in 2019. Available: <https://www.technologyreview.com/s/612689/never-mind-killer- robotshere-are-six-real-ai-dangers-to-watch-out-for-in-2019/? utm_medium=tr_social&utm_campaign=site_visitor.unpaid.engagement&utm_source=facebook&fbclid=IwAR1lMASPAqy_sDazS24FcvYAub_6qjYU06BhRmWfHsLtQR0it2t0K1JN90M> Acessed: 18 May 2022. PM vai testar reconhecimento facial em blocos de carnaval de Copacabana. Available: