Logo Passei Direto
Buscar

Ferramentas de estudo

Material
páginas com resultados encontrados.
páginas com resultados encontrados.
left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

Prévia do material em texto

CURSO: Ética da IA 
 O que você aprenderá 
 Depois de concluir este curso, você deverá estar apto para: 
 identificar os cinco pilares da ética da IA 
 Descobrir justiça na IA 
 Descrever atributos protegidos 
 identificar grupos privilegiados e grupos não privilegiados 
 Explicar propensão de IA 
 Identificar robustez 
 Descrever robustez adversária dentro da IA 
 Explicar como um oponente pode influenciar um sistema de IA 
 identificar ataques adversários 
 Descrever explicabilidade 
 Comparar interpretabilidade e explicabilidade 
 Definir transparência 
 Descrever controle 
 identificar as funções de negócios e os aspectos de transparência em que elas estão 
 envolvidas 
 identificar informações pessoais 
 identificar informações pessoais provisórias 
 Reconhecer anonimização do modelo 
 Descrever privacidade diferencial 
 Explicar minimização de dados 
 Marcações: 
 Aprendizagem de crachá 
 Fundamentos da Inteligencia Artificial 
 Dominio de Aprendizagem 
 Habilidades técnicas - Inteligencia Artificial 
 Domínio de aprendizagem primário 
 Taxonomia de habilidades do Lightcast 
 Inteligencia artificial V 
 Habilidade de inteligência Artificial 
 Habilidade de Governança 
 Conheça seus especialistas IBM! 
 Os indivíduos a seguir contribuíram para o design e desenvolvimento deste curso: 
 ● Saishruthi Swaminathan é cientista de dados e consultora do programa do comitê de 
 ética de IA e ética por design da IBM. 
 ● Drishti Vidyarthi é um designer de experiência do usuário da IBM para dados e IA. 
 ● Ahmed Meky é um desenvolvedor de front-end da IBM para dados e IA. 
 ● Gabriela de Queiroz é cientista de dados chefe da IBM para estratégia de IA da IBM. 
 ● Maria Alejandra Sanchez é gerente de ciência de dados da IBM para estratégia de 
 IA da IBM. 
 ● Kinga Szekessy Parrott é diretora de estratégia de inovações em IA da IBM para 
 estratégia de IA da IBM. 
 ● Jayde Cowan é designer visual associado da IBM. 
 ● Ying You é designer visual e de IU da IBM. 
 ● Rachel Amity Brown é gerente do programa de educação em ética da IBM 
 Identificar os cinco pilares da ética da IA 
 A inteligência artificial está em todos os lugares. Ela alimenta os aplicativos de navegação 
 que ajudam você a encontrar a rota mais eficiente ou mais ecológica. Ela aciona os 
 mecanismos de busca que ajudam a encontrar as informações mais relevantes. Ela ajuda 
 médicos a conseguir diagnósticos mais precisos e a desenvolver planos de tratamento mais 
 otimizados. Ela melhora a previsão do tempo, permitindo que você se prepare melhor para 
 eventos climáticos significativos. Em conjunção com sensores e satélites, ela pode coletar 
 dados sobre o ambiente que ajudam os cientistas a compreender melhor e fazer predições 
 sobre o mundo em constante mudança. A IA pode deixar a vida mais fácil e segura 
 ajudando as pessoas a tomarem decisões mais informadas, conectando-as com as 
 informações certas que elas precisam no momento certo e encontrando padrões ou 
 eficiências que, de outro modo, elas podem desconhecer. 
 Mas a IA também tem o potencial de fazer mal. Por exemplo, a IA pode ser usada para 
 determinar quem recebe um empréstimo, quem é aceito na faculdade ou selecionado para 
 uma vaga de emprego, como os funcionários são remunerados ou até mesmo a duração 
 das penas de detenção. No contexto da IA, um dano não quer dizer necessariamente um 
 dano físico. O dano pode ser menos óbvio, assumindo a forma de desigualdade, 
 discriminação ou exclusão. E esse dano pode ser sutil porque nem sempre as pessoas 
 sabem quando estão interagindo com a IA ou quando e como a IA pode estar influenciando 
 as decisões sobre elas. 
 Como a IA está cada vez mais integrada à vida cotidiana, é vital que pessoas possam 
 confiar nela. Os profissionais integram confiança a sistemas de IA com ética de IA. Ética da 
 IA é um campo multidisciplinar que investiga como otimizar o impacto benéfico da IA 
 enquanto reduz resultados adversos ou indesejados. Existem cinco pilares da ética da IA: 
 justiça, robustez, explicabilidade, transparência e privacidade. Esses pilares são áreas de 
 foco que ajudam a tornar a IA confiável. 
 No trecho do vídeo a seguir, John Thomas, vice-presidente e engenheiro renomado da IBM, 
 explica mais sobre cada um dos cinco pilares. 
 Qual dos pilares da IA a seguir é exemplificado por alguém capaz de descrever como um 
 sistema de IA faz uma predição ou recomendação? 
 R: A transparência permite que as pessoas vejam o que está acontecendo em um modelo 
 de IA, mas a explicabilidade descreve como alguém pode comunicar como o modelo 
 funciona. Pense no motor do seu carro. É possível ver todas as peças, mas você entende 
 como elas funcionam juntas? A explicabilidade seria poder dizer para alguém o que está 
 acontecendo no motor do seu carro enquanto você dirige. 
 Qual dos pilares de ética da IA a seguir está mais relacionado à resistência do seu modelo 
 de IA à interferência intencional e não intencional? 
 R: A robustez permite que os modelos de IA continuem entregando saída precisa e 
 confiável mesmo quando as circunstâncias mudam. Ao proteger os modelos de IA contra 
 adulterações, ataques e condições variáveis, as pessoas podem ter confiança na saída do 
 sistema de IA. 
 Um modelo de IA confiável deve permitir que fatos importantes sobre esse modelo sejam 
 vistos rapidamente, exatamente como o rótulo nutricional na caixa de um alimento. 
 Esse é um exemplo de qual das opções a seguir? 
 R: As pessoas têm dificuldade de confiar naquilo que não podem ver ou entender. Quando 
 um modelo de IA opera com transparência, as pessoas podem verificar o que está 
 acontecendo e entender como um sistema de IA está gerando resultados. A transparência 
 constrói confiança em modelos de IA 
 Um modelo de IA está dando uma vantagem ou desvantagem sistematicamente a um 
 determinado grupo. 
 Esse é um problema de qual das opções a seguir? 
 R:Justiça, Quando um sistema ou modelo de IA dá a um grupo uma vantagem sobre o 
 outro, isso é um problema de justiça. Deve-se ter cuidado no treinamento e teste de 
 sistemas de IA para minimizar propensão indesejada nos conjuntos de dados ou resultados. 
 A ÉTICA DA IA_______________ é um campo multidisciplinar que investiga como otimizar 
 o impacto benéfico da IA enquanto reduz resultados adversos ou indesejados. 
 MODULO 2 
 Introdução 
 Na IA, justiça é o tratamento equitativo de indivíduos ou grupos de indivíduos. A justiça é 
 obtida quando propensões/vieses indesejadas são mitigadas. Em IA, propensão é um erro 
 sistemático que foi concebido, intencionalmente ou não, de forma a gerar decisões injustas. 
 A propensão pode estar presente no sistema de IA, nos dados usados para treinar e testar 
 o sistema ou até mesmo em ambos. A propensão pode surgir em um sistema de IA devido 
 a expectativas culturais, limitações técnicas ou contextos imprevistos de implementação. 
 Objetivos de aprendizado 
 Depois de concluir este módulo, você deverá estar apto para: 
 Descrever justiça na IA 
 Descrever atributos protegidos 
 Identificar grupos privilegiados e grupos não privilegiados 
 Explicar propensão de IA 
 Na história a seguir, você aprenderá sobre justiça e propensão com Jordan, Priscilla e 
 Nischal, funcionários de uma grande empresa financeira nacional, ao descobrirem um 
 problema de justiça em um sistema de IA. 
 Em geral, propensãoé um erro sistemático, mas no contexto de justiça, a preocupação é 
 em torno da propensão indesejada. A propensão indesejada coloca alguns grupos ou 
 indivíduos em vantagem sistemática e outros grupos ou indivíduos em desvantagem 
 sistemática.” 
 A propensão indesejada coloca grupos privilegiados em vantagem sistemática e grupos não 
 privilegiados em desvantagem sistemática. 
 A razão para o uso de grupos é simples: minimizar a disparidade no resultado entre os 
 grupos. Em outras palavras, para ter um resultado equitativo entre os grupos.” 
 “Nós dividimos a população em grupos com base em um ou mais atributos nos dados que 
 podem introduzir disparidade ou desigualdade no resultado. O atributo que separa a 
 população em grupos é chamado de atributo protegido. Alguns atributos protegidos 
 geralmente usados são raça, idade, sexo ao nascer, identidade de gênero e etnia. Mas… 
 não existe um conjunto definido de atributos protegidos.” 
 Nota: por razões legais e outras políticas, geralmente o que acontece é que os atributos 
 protegidos não são mantidos no conjunto de dados. Nesses casos, a equipe pode 
 imputá-los (o que vem repleto de propensões próprias) ou pode usar as estatísticas de 
 conjuntos de dados demográficos usando uma abordagem de transferência de 
 aprendizado(opens in a new tab). 
 Tradicionalmente, se um grupo recebe um resultado mais favorável ou vantajoso do que 
 outro, pode haver entrada de propensão e causar um resultado injusto. O grupo que 
 tradicionalmente recebe resultados mais favoráveis é chamado de grupo privilegiado. O 
 grupo que tradicionalmente recebe menos ou nenhum resultado favorável é chamado de 
 grupo desprivilegiado. A justiça na IA visa minimizar o impacto da propensão indesejada no 
 sistema”, conclui Nischal 
 Reflexão: justiça na IA 
 Imagine que você faça parte da equipe tentando lidar com problemas de justiça. Pense nas 
 perguntas a seguir. Pare alguns minutos para refletir e digite suas respostas nas caixas de 
 texto a seguir. (Escrever uma resposta é uma boa maneira de processar seus pensamentos. 
 Estas respostas são somente para seu uso. Você tem a opção de baixar sua resposta e 
 salvá-la. Ela não fica salva na caixa de texto quando você avança no curso.) 
 Insira suas respostas nos campos fornecidos. 
 Existe alguma etapa para analisar as consequências desejadas e indesejadas do aplicativo 
 usando uma abordagem de design thinking? Você acha que essa etapa é necessária? 
 Sim, acredito que a etapa é fundamental, se aplicarmos uma abordagem de design thinking 
 ao desenvolvimento de aplicativos, é importante ter algumas considerações em relação às 
 consequências desejadas e indesejadas em todas as partes envolvidas, ou seja, a etapa é 
 necessária pela inclusão de diversidades e empatia, assim como analisar os impactos das 
 consequências positivas e negativas para entender como o app afetará os usuários, lembrar 
 principalmente da ética e responsabilidade social, pois ao colocar em pauta os possíveis 
 resultados ruins demonstram responsabilidade social e evita a criação de danos, por fim a 
 melhoria contínua com o design thinking, pois o mesmo é mais didático e interativo. 
 Qual atributo no conjunto de dados dessa história tem o potencial de introduzir propensão 
 indesejada? 
 A falta de uma cultura de diversidade forte pode ser a maior causadora desse problema. 
 Existe alguma maneira de minimizar a propensão em cada estágio do ciclo de vida da IA 
 (do desenvolvimento à implementação)? Como você faria isso? 
 Acredito que a inserção de dados brutos possa ser eficaz nesse caso, ou seja, ter um 
 pré-processamento de dados para o treinamento do modelo. 
 De que maneiras a propensão observada pode ser tratada? 
 Acredito que com uma cultura organizacional forte em diversidade e inclusão é a chave! Um 
 modelo onde todas a diversidade está inclusa no treinamento é o caminho ideal para tratar 
 da propensão. 
 Expandir para mais pensamentos 
 Para a pergunta 1: E existe alguma etapa para analisar as consequências desejadas e 
 indesejadas do aplicativo usando uma abordagem de design thinking? Você acha que essa 
 etapa é necessária? 
 Sim, é muito importante entender os efeitos conhecidos e desconhecidos dos aplicativos 
 para minimizar danos significativos. Uma maneira de tentar entender os melhores efeitos 
 conhecidos e desconhecidos é considerada como camadas de efeito. Ao considerar as 
 camadas de efeito, você pensa sobre o efeito primário da aplicação (seu impacto 
 pretendido), efeitos seus secundários (impactos indesejados, conhecidos ou previsíveis) e 
 seus efeitos terciários (potenciais impactos indesejados, imprevisíveis ou inesperados). 
 Considerar as camadas de efeito com uma equipe diversa e inclusivamente ajuda a 
 identificar uma maior variedade de impactos potenciais, incluindo danos. 
 Para a pergunta 2: Qual atributo no conjunto de dados dessa história tem o potencial de 
 introduzir propensão indesejada? 
 O atributo "Etnia do funcionário" 
 Para a pergunta 3: Existe alguma maneira de minimizar a propensão em cada etapa do 
 ciclo de vida da IA (do desenvolvimento à implementação)? Como você faria isso?

Mais conteúdos dessa disciplina