Olá, sou Alan. Bem-vindo ao curso de ética, gestão de vieses e regulação. Sou um profissional do mercado, trabalho em uma seguradora e tenho mais de 20 anos de experiência trabalhando com dados. Atualmente, sou gerente de governança de dados e IA.
Também ministramos aulas na FIAP, na pós-tech da FIAP, e gravamos alguns conteúdos aqui na Alura que podem ser encontrados no catálogo. Em termos de acessibilidade, somos uma pessoa branca, de pele clara, com cabelo e barba curtos de cor castanho escuro. Estamos vestindo uma camiseta preta e, ao fundo, está o estúdio da Alura em um tom azul. Esperamos que apreciem este conteúdo, que será uma conversa muito leve e tranquila sobre um tema muito importante para nossa sociedade. Agradecemos e nos encontramos no próximo vídeo.
Olá! Vamos ao nosso primeiro capítulo, nossa primeira discussão sobre um tema tão importante quanto a gestão de vieses e ética no universo da inteligência artificial. Para iniciar essa conversa, apresentamos os princípios éticos fundamentais aplicados à inteligência artificial. Quando estudamos essa disciplina, abordamos justiça, privacidade, responsabilidade e dignidade humana. Esses princípios são operacionais e não apenas ideias; eles orientam todas as decisões estratégicas na gestão de governança de inteligência artificial.
Esses princípios guiam requisitos, controles, auditoria, explicabilidade, critérios de risco e o ciclo de vida dos modelos. Quando falamos de justiça aplicada, referimo-nos a evitar decisões algorítmicas desiguais. Devemos trabalhar e aplicar métodos para identificar desigualdades apreendidas pelos dados, critérios explícitos versus diretos, e os riscos das proxies. É necessário ter bastante cuidado nesse ponto, considerando os trade-offs entre equidade e desempenho. Este é um ponto ético fundamental, pois em algum momento será necessário sacrificar o desempenho para garantir equidade em uma decisão de inteligência artificial.
Inicialmente, isso pode parecer uma perda de oportunidade ou vantagem competitiva, mas, ao estabelecer princípios sólidos e éticos, isso retorna com garantias, fortalecendo a reputação da empresa no mercado. Isso proporciona uma base sólida para crescimento e evolução futura. A justiça, no contexto da IA, não é um conceito abstrato; ela exige a observação de dados, métricas por grupo, testes de viés e escolhas conscientes entre desempenho e equidade. É onde a teoria encontra a matemática.
Quando falamos de responsabilidade humana, significa que cada decisão automatizada por uma inteligência artificial precisa de um responsável humano. Não é a inteligência por si só; em um contexto onde existe governança de IA, sempre haverá um responsável humano por aquela decisão e aplicação de inteligência artificial. Isso oferece mais base e sustentação para projetos de inteligência artificial dentro da empresa. Não basta apenas ter governança; é preciso ter nomes e papéis definidos, o que chamamos de accountability. Isso é um requisito legal, ético e operacional dentro do contexto de governança de IA e de empresas que utilizam a inteligência artificial de forma ética e planejada, pensando no futuro, e não apenas para aproveitar a tendência do momento.
Quando falamos de privacidade e proteção, a privacidade deixa de ser um princípio e passa a ser um risco operacional. Modelos podem memorizar dados sensíveis, especialmente modelos generativos, e proteger a privacidade é proteger pessoas e reduzir riscos legais. Existem diversos casos na internet, quando estudamos sobre o tema, de empresas que não tomaram o devido cuidado e expuseram dados sensíveis ou patentes. Um exemplo famoso é o caso da Samsung, que expôs uma patente de produtos ainda em desenvolvimento. O operador tentou usar a inteligência artificial generativa para acelerar o desenvolvimento e acabou expondo informações confidenciais em um contexto de inteligência artificial aberta, o que permitiu que essa informação chegasse aos concorrentes. Portanto, é necessário ter muito cuidado.
Quando falamos de dignidade humana, trata-se de um princípio que afirma que a inteligência artificial não pode desrespeitar, manipular ou reduzir pessoas a números. Isso é uma base fundamental quando tratamos do tema. É o fundamento por trás de proibições do IA-ACT, como manipulação subliminar, e da necessidade de supervisão humana. Assim, ao abordar esse ponto, estamos estabelecendo uma base sólida para a dignidade humana. Uma inteligência artificial não pode desrespeitar ou julgar as pessoas por aspectos físicos, e isso tem uma base muito sólida, com aplicações importantes no contexto da inteligência artificial.
Por fim, a ética como vantagem competitiva. Quando falamos de ética, ela não é um custo, nem um trade-off em que abrimos mão de um modelo mais performático em função de ter uma base ética. Ela é um multiplicador de valor. Empresas que incorporam ética desde o início reduzem riscos, principalmente, e aumentam a confiança dos clientes. As pessoas passam a confiar em entregar seus dados ou utilizar esses serviços porque sabem que há uma empresa ética com responsabilidade humana por trás das decisões. Assim, os clientes ficam mais confiantes e os reguladores criam projetos de IA-ACT que realmente escalam. Não se trata de algo que implementamos apenas para ganhar uma concorrência, mas que não persevera ao longo do tempo por falta de bases que sustentem a confiabilidade do cliente.
No próximo vídeo, vamos avançar mais um pouco. A ideia é construir um raciocínio ao longo desses vídeos e capítulos, formando uma consciência sobre o tema e entendendo como a governança de IA pode ajudar em projetos de IA bem estabelecidos, que consigam perseverar ao longo dos anos e tornar a empresa, além de protegida, mais competitiva. Nos vemos no próximo vídeo.
Olá, bem-vindos a um novo capítulo de nossa conversa. Vamos agora dar um passo adiante nas preocupações éticas dentro de projetos de inteligência artificial. Iniciaremos uma discussão sobre como a IA pode reproduzir e amplificar desigualdades. Por que devemos ter essa preocupação em projetos de inteligência artificial? Basicamente, qualquer projeto de IA depende de um contexto de dados. Costumamos dizer nos projetos em que participamos que não adianta a empresa investir em inteligência artificial se não tiver uma base sólida de dados e uma governança de dados importante para subsidiar e evitar riscos éticos, como estamos discutindo aqui.
Quando falamos de dados e de dados históricos, eles carregam padrões sociais e desigualdades. É notório que dados históricos possuem esses vieses intrínsecos. Os modelos aprendem a reforçar esses padrões sem perceber, potencializando características eventuais de um conjunto de dados. Se esses dados não estiverem bem estruturados e pensados com essa preocupação, isso pode ser amplificado com as aplicações de inteligência artificial. Algumas variáveis podem discriminar de forma indireta. Por exemplo, o código postal pode indicar onde a pessoa reside ou convive, o nível educacional, o tempo de emprego, tudo isso pode gerar uma discriminação encadeada e amplificada em projetos de IA.
Por que a injustiça algorítmica é tão difícil de detectar? Os erros não aparecem facilmente nas métricas globais. Ao desenvolver um modelo de IA, preocupamo-nos muito com a precisão e o desempenho do modelo, mas às vezes não nos preocupamos tanto com a justiça, ou fairness, do modelo. O desempenho pode ser alto, mas injusto para algum subgrupo. O modelo pode mostrar 90% de acerto e ainda assim errar sistematicamente para um grupo específico. A precisão geral do modelo não é suficiente; precisamos nos preocupar com esses subgrupos dentro do conjunto de dados com o qual estamos trabalhando. É uma das maiores armadilhas operacionais da IA focar apenas no desempenho do modelo e nos benefícios financeiros, sem considerar a questão de subgrupo, contexto e injustiça com alguma característica dentro do mercado.
Para tornar isso mais claro, vamos a alguns exemplos práticos. Em contextos onde a IA é utilizada para crédito, os modelos podem penalizar grupos por sua situação socioeconômica. Podemos negar uma linha de crédito a pessoas que mais precisam, de uma região específica ou de um contexto de microempreendedor individual (MEI), por exemplo, se houver um viés nos dados amplificado no projeto de IA. Sem uma preocupação ética e um acompanhamento humano, podemos prejudicar um subgrupo ao utilizar IA para uma linha de crédito.
Em processos de recrutamento, ocorre o mesmo. A seleção pode ser enviesada por padrões históricos. Se o modelo não estiver bem ajustado, pode escolher apenas homens para cargos de liderança ou apenas pessoas brancas, por exemplo. Essa é uma preocupação em processos de recrutamento utilizando IA sem supervisão e governança adequadas.
Na questão de segurança, o policiamento preditivo pode reforçar ciclos de vigilância. Aplicações como o SmartSampa, um produto de IA utilizado pela prefeitura de São Paulo, se não forem bem preparadas e desenvolvidas considerando esses pontos, podem em algum momento utilizar características que enviesem o modelo. Portanto, é um ponto muito importante a ser considerado.
O exemplo citado de SmartSampa tenta identificar uma pessoa com uma base de dados de indivíduos com processos judiciais que já estão sendo procurados pela polícia. Este é apenas um exemplo para mostrar que o governo e a gestão pública estão cada vez mais utilizando técnicas de inteligência artificial. Quando desenvolvemos modelos preditivos para identificar comportamentos suspeitos ou preocupações em nossos negócios, precisamos nos atentar ao viés e ao contexto, considerando subgrupos, para que isso não seja prejudicial. Isso traz um impacto social: quem se beneficia e quem é prejudicado quando utilizamos uma aplicação de inteligência artificial?
No exemplo de recrutamento, se contratarmos apenas homens, eles ficarão satisfeitos, pois a competição será reduzida pela metade, já que as mulheres não participarão. Mas e as mulheres? O que acontece com elas? Essa é uma questão muito importante dentro de um contexto ético, sólido e consistente em um projeto de inteligência artificial. O acesso desigual e as oportunidades de trabalho são preocupações relevantes, como mencionado anteriormente sobre recrutamento. Existe o risco de exclusão digital e discriminação automatizada. Se o viés introduzido nos dados não for controlado adequadamente, ele pode se amplificar, resultando na exclusão digital de algum nicho.
Se um processo de recrutamento, como o de muitas grandes empresas, utiliza algoritmos de inteligência artificial para a primeira triagem, sem a devida preocupação, um nicho pode ser excluído digitalmente para sempre. Assim, esse grupo nunca passará do primeiro nível, que é o da inteligência artificial, e nunca chegará a conversar com o responsável pela vaga ou com o gestor da empresa. Isso deve gerar muita preocupação. O reforço de estereótipos históricos, como mencionado, é um risco, pois os vieses já presentes nos dados podem ser amplificados com a aplicação da inteligência artificial.
Quais são as consequências organizacionais desse problema? A perda de confiança dos clientes e da sociedade é fundamental. Se percebemos que uma empresa utiliza soluções de inteligência artificial que discriminam subgrupos, podemos deixar de querer nos relacionar com ela. Hoje é um subgrupo, mas amanhã pode ser qualquer um de nós. Isso pode resultar em problemas de confiança com a marca, danificada por essas aplicações. Também há riscos regulatórios, que serão discutidos em vídeos futuros. A empresa pode enfrentar penalizações por discriminação, além de danos à reputação e à marca.
É crucial proteger o bem mais valioso da empresa: a marca. Quando falamos de empresas como Google ou Microsoft, já temos uma ideia de suas linhas de negócio. Imagine uma marca assim com a reputação danificada por uma aplicação de inteligência artificial mal desenvolvida. As consequências sociais também são significativas, pois erros podem se transformar em desigualdade estrutural. A inteligência artificial influencia decisões públicas e privadas, exigindo cuidado e acompanhamento, além de considerar a dimensão ética e moral nos projetos.
Nosso papel na governança de IA é apoiar as pessoas desenvolvedoras que criam esses projetos, garantindo que tudo seja feito da melhor maneira. As pessoas desenvolvedoras sempre buscarão desempenho e modelos que identifiquem oportunidades. Nós, na governança de inteligência artificial, devemos garantir que, além do desempenho, haja governança e questões éticas e morais associadas a projetos que tragam oportunidades para a empresa.
No próximo vídeo, avançaremos nessa discussão. Esperamos que esteja sendo proveitoso e faça sentido. É uma conversa que parece óbvia, mas muitas empresas, com grande apetite por participar desse mercado, às vezes negligenciam esse ponto crucial. Nos vemos no próximo vídeo.
O curso Ética em Inteligência Artificial: mitigando vieses e garantindo transparência possui 133 minutos de vídeos, em um total de 46 atividades. Gostou? Conheça nossos outros cursos de IA para Negócios em Inteligência Artificial, ou leia nossos artigos de Inteligência Artificial.
Matricule-se e comece a estudar com a gente hoje! Conheça outros tópicos abordados durante o curso:
O Plano Plus evoluiu: agora com Luri para impulsionar sua carreira com os melhores cursos e acesso à maior comunidade tech.
2 anos de Alura
Matricule-se no plano PLUS 24 e garanta:
Jornada de estudos progressiva que te guia desde os fundamentos até a atuação prática. Você acompanha sua evolução, entende os próximos passos e se aprofunda nos conteúdos com quem é referência no mercado.
Programação, Data Science, Front-end, DevOps, Mobile, Inovação & Gestão, UX & Design, Inteligência Artificial
Formações com mais de 1500 cursos atualizados e novos lançamentos semanais, em Programação, Inteligência Artificial, Front-end, UX & Design, Data Science, Mobile, DevOps e Inovação & Gestão.
A cada curso ou formação concluído, um novo certificado para turbinar seu currículo e LinkedIn.
Acesso à inteligência artificial da Alura.
No Discord, você participa de eventos exclusivos, pode tirar dúvidas em estudos colaborativos e ainda conta com mentorias em grupo com especialistas de diversas áreas.
Faça parte da maior comunidade Dev do país e crie conexões com mais de 120 mil pessoas no Discord.
Acesso ilimitado ao catálogo de Imersões da Alura para praticar conhecimentos em diferentes áreas.
Explore um universo de possibilidades na palma da sua mão. Baixe as aulas para assistir offline, onde e quando quiser.
Luri Vision chegou no Plano Pro: a IA da Alura que enxerga suas dúvidas, acelera seu aprendizado e conta também com o Alura Língua que prepara você para competir no mercado internacional.
2 anos de Alura
Todos os benefícios do PLUS 24 e mais vantagens exclusivas:
Chat, busca, exercícios abertos, revisão de aula, geração de legenda para certificado.
Envie imagens para a Luri e ela te ajuda a solucionar problemas, identificar erros, esclarecer gráficos, analisar design e muito mais.
Aprenda um novo idioma e expanda seus horizontes profissionais. Cursos de Inglês, Espanhol e Inglês para Devs, 100% focado em tecnologia.
Escolha os ebooks da Casa do Código, a editora da Alura, que apoiarão a sua jornada de aprendizado para sempre.
Para quem quer atingir seus objetivos mais rápido: Luri Vision ilimitado, vagas de emprego exclusivas e mentorias para acelerar cada etapa da jornada.
2 anos de Alura
Todos os benefícios do PRO 24 e mais vantagens exclusivas:
Catálogo de tecnologia para quem é da área de Marketing
Envie imagens para a Luri e ela te ajuda a solucionar problemas, identificar erros, esclarecer gráficos, analisar design e muito mais de forma ilimitada.
Escolha os ebooks da Casa do Código, a editora da Alura, que apoiarão a sua jornada de aprendizado para sempre.
Conecte-se ao mercado com mentoria individual personalizada, vagas exclusivas e networking estratégico que impulsionam sua carreira tech para o próximo nível.