Prévia do material em texto
CURSO: Ética da IA O que você aprenderá Depois de concluir este curso, você deverá estar apto para: identificar os cinco pilares da ética da IA Descobrir justiça na IA Descrever atributos protegidos identificar grupos privilegiados e grupos não privilegiados Explicar propensão de IA Identificar robustez Descrever robustez adversária dentro da IA Explicar como um oponente pode influenciar um sistema de IA identificar ataques adversários Descrever explicabilidade Comparar interpretabilidade e explicabilidade Definir transparência Descrever controle identificar as funções de negócios e os aspectos de transparência em que elas estão envolvidas identificar informações pessoais identificar informações pessoais provisórias Reconhecer anonimização do modelo Descrever privacidade diferencial Explicar minimização de dados Marcações: Aprendizagem de crachá Fundamentos da Inteligencia Artificial Dominio de Aprendizagem Habilidades técnicas - Inteligencia Artificial Domínio de aprendizagem primário Taxonomia de habilidades do Lightcast Inteligencia artificial V Habilidade de inteligência Artificial Habilidade de Governança Conheça seus especialistas IBM! Os indivíduos a seguir contribuíram para o design e desenvolvimento deste curso: ● Saishruthi Swaminathan é cientista de dados e consultora do programa do comitê de ética de IA e ética por design da IBM. ● Drishti Vidyarthi é um designer de experiência do usuário da IBM para dados e IA. ● Ahmed Meky é um desenvolvedor de front-end da IBM para dados e IA. ● Gabriela de Queiroz é cientista de dados chefe da IBM para estratégia de IA da IBM. ● Maria Alejandra Sanchez é gerente de ciência de dados da IBM para estratégia de IA da IBM. ● Kinga Szekessy Parrott é diretora de estratégia de inovações em IA da IBM para estratégia de IA da IBM. ● Jayde Cowan é designer visual associado da IBM. ● Ying You é designer visual e de IU da IBM. ● Rachel Amity Brown é gerente do programa de educação em ética da IBM Identificar os cinco pilares da ética da IA A inteligência artificial está em todos os lugares. Ela alimenta os aplicativos de navegação que ajudam você a encontrar a rota mais eficiente ou mais ecológica. Ela aciona os mecanismos de busca que ajudam a encontrar as informações mais relevantes. Ela ajuda médicos a conseguir diagnósticos mais precisos e a desenvolver planos de tratamento mais otimizados. Ela melhora a previsão do tempo, permitindo que você se prepare melhor para eventos climáticos significativos. Em conjunção com sensores e satélites, ela pode coletar dados sobre o ambiente que ajudam os cientistas a compreender melhor e fazer predições sobre o mundo em constante mudança. A IA pode deixar a vida mais fácil e segura ajudando as pessoas a tomarem decisões mais informadas, conectando-as com as informações certas que elas precisam no momento certo e encontrando padrões ou eficiências que, de outro modo, elas podem desconhecer. Mas a IA também tem o potencial de fazer mal. Por exemplo, a IA pode ser usada para determinar quem recebe um empréstimo, quem é aceito na faculdade ou selecionado para uma vaga de emprego, como os funcionários são remunerados ou até mesmo a duração das penas de detenção. No contexto da IA, um dano não quer dizer necessariamente um dano físico. O dano pode ser menos óbvio, assumindo a forma de desigualdade, discriminação ou exclusão. E esse dano pode ser sutil porque nem sempre as pessoas sabem quando estão interagindo com a IA ou quando e como a IA pode estar influenciando as decisões sobre elas. Como a IA está cada vez mais integrada à vida cotidiana, é vital que pessoas possam confiar nela. Os profissionais integram confiança a sistemas de IA com ética de IA. Ética da IA é um campo multidisciplinar que investiga como otimizar o impacto benéfico da IA enquanto reduz resultados adversos ou indesejados. Existem cinco pilares da ética da IA: justiça, robustez, explicabilidade, transparência e privacidade. Esses pilares são áreas de foco que ajudam a tornar a IA confiável. No trecho do vídeo a seguir, John Thomas, vice-presidente e engenheiro renomado da IBM, explica mais sobre cada um dos cinco pilares. Qual dos pilares da IA a seguir é exemplificado por alguém capaz de descrever como um sistema de IA faz uma predição ou recomendação? R: A transparência permite que as pessoas vejam o que está acontecendo em um modelo de IA, mas a explicabilidade descreve como alguém pode comunicar como o modelo funciona. Pense no motor do seu carro. É possível ver todas as peças, mas você entende como elas funcionam juntas? A explicabilidade seria poder dizer para alguém o que está acontecendo no motor do seu carro enquanto você dirige. Qual dos pilares de ética da IA a seguir está mais relacionado à resistência do seu modelo de IA à interferência intencional e não intencional? R: A robustez permite que os modelos de IA continuem entregando saída precisa e confiável mesmo quando as circunstâncias mudam. Ao proteger os modelos de IA contra adulterações, ataques e condições variáveis, as pessoas podem ter confiança na saída do sistema de IA. Um modelo de IA confiável deve permitir que fatos importantes sobre esse modelo sejam vistos rapidamente, exatamente como o rótulo nutricional na caixa de um alimento. Esse é um exemplo de qual das opções a seguir? R: As pessoas têm dificuldade de confiar naquilo que não podem ver ou entender. Quando um modelo de IA opera com transparência, as pessoas podem verificar o que está acontecendo e entender como um sistema de IA está gerando resultados. A transparência constrói confiança em modelos de IA Um modelo de IA está dando uma vantagem ou desvantagem sistematicamente a um determinado grupo. Esse é um problema de qual das opções a seguir? R:Justiça, Quando um sistema ou modelo de IA dá a um grupo uma vantagem sobre o outro, isso é um problema de justiça. Deve-se ter cuidado no treinamento e teste de sistemas de IA para minimizar propensão indesejada nos conjuntos de dados ou resultados. A ÉTICA DA IA_______________ é um campo multidisciplinar que investiga como otimizar o impacto benéfico da IA enquanto reduz resultados adversos ou indesejados. MODULO 2 Introdução Na IA, justiça é o tratamento equitativo de indivíduos ou grupos de indivíduos. A justiça é obtida quando propensões/vieses indesejadas são mitigadas. Em IA, propensão é um erro sistemático que foi concebido, intencionalmente ou não, de forma a gerar decisões injustas. A propensão pode estar presente no sistema de IA, nos dados usados para treinar e testar o sistema ou até mesmo em ambos. A propensão pode surgir em um sistema de IA devido a expectativas culturais, limitações técnicas ou contextos imprevistos de implementação. Objetivos de aprendizado Depois de concluir este módulo, você deverá estar apto para: Descrever justiça na IA Descrever atributos protegidos Identificar grupos privilegiados e grupos não privilegiados Explicar propensão de IA Na história a seguir, você aprenderá sobre justiça e propensão com Jordan, Priscilla e Nischal, funcionários de uma grande empresa financeira nacional, ao descobrirem um problema de justiça em um sistema de IA. Em geral, propensãoé um erro sistemático, mas no contexto de justiça, a preocupação é em torno da propensão indesejada. A propensão indesejada coloca alguns grupos ou indivíduos em vantagem sistemática e outros grupos ou indivíduos em desvantagem sistemática.” A propensão indesejada coloca grupos privilegiados em vantagem sistemática e grupos não privilegiados em desvantagem sistemática. A razão para o uso de grupos é simples: minimizar a disparidade no resultado entre os grupos. Em outras palavras, para ter um resultado equitativo entre os grupos.” “Nós dividimos a população em grupos com base em um ou mais atributos nos dados que podem introduzir disparidade ou desigualdade no resultado. O atributo que separa a população em grupos é chamado de atributo protegido. Alguns atributos protegidos geralmente usados são raça, idade, sexo ao nascer, identidade de gênero e etnia. Mas… não existe um conjunto definido de atributos protegidos.” Nota: por razões legais e outras políticas, geralmente o que acontece é que os atributos protegidos não são mantidos no conjunto de dados. Nesses casos, a equipe pode imputá-los (o que vem repleto de propensões próprias) ou pode usar as estatísticas de conjuntos de dados demográficos usando uma abordagem de transferência de aprendizado(opens in a new tab). Tradicionalmente, se um grupo recebe um resultado mais favorável ou vantajoso do que outro, pode haver entrada de propensão e causar um resultado injusto. O grupo que tradicionalmente recebe resultados mais favoráveis é chamado de grupo privilegiado. O grupo que tradicionalmente recebe menos ou nenhum resultado favorável é chamado de grupo desprivilegiado. A justiça na IA visa minimizar o impacto da propensão indesejada no sistema”, conclui Nischal Reflexão: justiça na IA Imagine que você faça parte da equipe tentando lidar com problemas de justiça. Pense nas perguntas a seguir. Pare alguns minutos para refletir e digite suas respostas nas caixas de texto a seguir. (Escrever uma resposta é uma boa maneira de processar seus pensamentos. Estas respostas são somente para seu uso. Você tem a opção de baixar sua resposta e salvá-la. Ela não fica salva na caixa de texto quando você avança no curso.) Insira suas respostas nos campos fornecidos. Existe alguma etapa para analisar as consequências desejadas e indesejadas do aplicativo usando uma abordagem de design thinking? Você acha que essa etapa é necessária? Sim, acredito que a etapa é fundamental, se aplicarmos uma abordagem de design thinking ao desenvolvimento de aplicativos, é importante ter algumas considerações em relação às consequências desejadas e indesejadas em todas as partes envolvidas, ou seja, a etapa é necessária pela inclusão de diversidades e empatia, assim como analisar os impactos das consequências positivas e negativas para entender como o app afetará os usuários, lembrar principalmente da ética e responsabilidade social, pois ao colocar em pauta os possíveis resultados ruins demonstram responsabilidade social e evita a criação de danos, por fim a melhoria contínua com o design thinking, pois o mesmo é mais didático e interativo. Qual atributo no conjunto de dados dessa história tem o potencial de introduzir propensão indesejada? A falta de uma cultura de diversidade forte pode ser a maior causadora desse problema. Existe alguma maneira de minimizar a propensão em cada estágio do ciclo de vida da IA (do desenvolvimento à implementação)? Como você faria isso? Acredito que a inserção de dados brutos possa ser eficaz nesse caso, ou seja, ter um pré-processamento de dados para o treinamento do modelo. De que maneiras a propensão observada pode ser tratada? Acredito que com uma cultura organizacional forte em diversidade e inclusão é a chave! Um modelo onde todas a diversidade está inclusa no treinamento é o caminho ideal para tratar da propensão. Expandir para mais pensamentos Para a pergunta 1: E existe alguma etapa para analisar as consequências desejadas e indesejadas do aplicativo usando uma abordagem de design thinking? Você acha que essa etapa é necessária? Sim, é muito importante entender os efeitos conhecidos e desconhecidos dos aplicativos para minimizar danos significativos. Uma maneira de tentar entender os melhores efeitos conhecidos e desconhecidos é considerada como camadas de efeito. Ao considerar as camadas de efeito, você pensa sobre o efeito primário da aplicação (seu impacto pretendido), efeitos seus secundários (impactos indesejados, conhecidos ou previsíveis) e seus efeitos terciários (potenciais impactos indesejados, imprevisíveis ou inesperados). Considerar as camadas de efeito com uma equipe diversa e inclusivamente ajuda a identificar uma maior variedade de impactos potenciais, incluindo danos. Para a pergunta 2: Qual atributo no conjunto de dados dessa história tem o potencial de introduzir propensão indesejada? O atributo "Etnia do funcionário" Para a pergunta 3: Existe alguma maneira de minimizar a propensão em cada etapa do ciclo de vida da IA (do desenvolvimento à implementação)? Como você faria isso?