Um hospital público está implementando um sistema de IA para auxiliar no diagnóstico de doenças respiratórias através de análise de imagens de raios-X do tórax. O sistema utilizará redes neurais convolucionais treinadas com milhares de exames previamente diagnosticados por radiologistas experientes. Entretanto, a implementação levanta questões éticas e legais complexas: o algoritmo pode apresentar viés racial ou socioeconômico se os dados de treinamento não forem representativos da população atendida; existe responsabilidade legal quando o sistema erra um diagnóstico; há preocupações sobre privacidade dos dados médicos utilizados no treinamento; médicos podem desenvolver dependência excessiva da tecnologia, reduzindo suas habilidades diagnósticas; e pacientes podem não compreender como suas informações são processadas pelo sistema. Além disso, a implementação pode amplificar desigualdades no acesso à saúde se hospitais com menos recursos não conseguirem adotar a tecnologia. A avaliação desses impactos é fundamental para uma implementação responsável e benéfica para toda a sociedade. Considerando o contexto apresentado, analise as seguintes afirmativas: I. O viés algorítmico em sistemas de diagnóstico médico pode ser mitigado através de conjuntos de dados diversificados e técnicas de auditoria algorítmica que avaliem o desempenho do modelo em diferentes grupos demográficos. II. A responsabilidade legal por erros de diagnóstico assistido por IA deve recair exclusivamente sobre os desenvolvedores do sistema, isentando os profissionais médicos de qualquer responsabilidade clínica. III. A implementação de IA em saúde requer frameworks de governança que incluam consentimento informado dos pacientes, transparência nos processos de tomada de decisão e mecanismos de auditoria contínua do sistema. IV. O impacto social da IA médica pode amplificar desigualdades existentes no sistema de saúde, exigindo políticas públicas que garantam acesso equitativo à tecnologia e seus benefícios. Considerando o contexto apresentado,