Alura > Cursos de Inteligência Artificial > Cursos de IA para Negócios > Conteúdos de IA para Negócios > Primeiras aulas do curso Ética em Inteligência Artificial: mitigando vieses e garantindo transparência

Ética em Inteligência Artificial: mitigando vieses e garantindo transparência

Fundamentos de Ética Aplicada à IA - Apresentação do Professor

Apresentando o instrutor e o curso

Olá, sou Alan. Bem-vindo ao curso de ética, gestão de vieses e regulação. Sou um profissional do mercado, trabalho em uma seguradora e tenho mais de 20 anos de experiência trabalhando com dados. Atualmente, sou gerente de governança de dados e IA.

Também ministramos aulas na FIAP, na pós-tech da FIAP, e gravamos alguns conteúdos aqui na Alura que podem ser encontrados no catálogo. Em termos de acessibilidade, somos uma pessoa branca, de pele clara, com cabelo e barba curtos de cor castanho escuro. Estamos vestindo uma camiseta preta e, ao fundo, está o estúdio da Alura em um tom azul. Esperamos que apreciem este conteúdo, que será uma conversa muito leve e tranquila sobre um tema muito importante para nossa sociedade. Agradecemos e nos encontramos no próximo vídeo.

Fundamentos de Ética Aplicada à IA - Princípios éticos fundamentais

Introduzindo os princípios éticos na inteligência artificial

Olá! Vamos ao nosso primeiro capítulo, nossa primeira discussão sobre um tema tão importante quanto a gestão de vieses e ética no universo da inteligência artificial. Para iniciar essa conversa, apresentamos os princípios éticos fundamentais aplicados à inteligência artificial. Quando estudamos essa disciplina, abordamos justiça, privacidade, responsabilidade e dignidade humana. Esses princípios são operacionais e não apenas ideias; eles orientam todas as decisões estratégicas na gestão de governança de inteligência artificial.

Esses princípios guiam requisitos, controles, auditoria, explicabilidade, critérios de risco e o ciclo de vida dos modelos. Quando falamos de justiça aplicada, referimo-nos a evitar decisões algorítmicas desiguais. Devemos trabalhar e aplicar métodos para identificar desigualdades apreendidas pelos dados, critérios explícitos versus diretos, e os riscos das proxies. É necessário ter bastante cuidado nesse ponto, considerando os trade-offs entre equidade e desempenho. Este é um ponto ético fundamental, pois em algum momento será necessário sacrificar o desempenho para garantir equidade em uma decisão de inteligência artificial.

Explorando a justiça e responsabilidade na IA

Inicialmente, isso pode parecer uma perda de oportunidade ou vantagem competitiva, mas, ao estabelecer princípios sólidos e éticos, isso retorna com garantias, fortalecendo a reputação da empresa no mercado. Isso proporciona uma base sólida para crescimento e evolução futura. A justiça, no contexto da IA, não é um conceito abstrato; ela exige a observação de dados, métricas por grupo, testes de viés e escolhas conscientes entre desempenho e equidade. É onde a teoria encontra a matemática.

Quando falamos de responsabilidade humana, significa que cada decisão automatizada por uma inteligência artificial precisa de um responsável humano. Não é a inteligência por si só; em um contexto onde existe governança de IA, sempre haverá um responsável humano por aquela decisão e aplicação de inteligência artificial. Isso oferece mais base e sustentação para projetos de inteligência artificial dentro da empresa. Não basta apenas ter governança; é preciso ter nomes e papéis definidos, o que chamamos de accountability. Isso é um requisito legal, ético e operacional dentro do contexto de governança de IA e de empresas que utilizam a inteligência artificial de forma ética e planejada, pensando no futuro, e não apenas para aproveitar a tendência do momento.

Abordando privacidade e dignidade humana

Quando falamos de privacidade e proteção, a privacidade deixa de ser um princípio e passa a ser um risco operacional. Modelos podem memorizar dados sensíveis, especialmente modelos generativos, e proteger a privacidade é proteger pessoas e reduzir riscos legais. Existem diversos casos na internet, quando estudamos sobre o tema, de empresas que não tomaram o devido cuidado e expuseram dados sensíveis ou patentes. Um exemplo famoso é o caso da Samsung, que expôs uma patente de produtos ainda em desenvolvimento. O operador tentou usar a inteligência artificial generativa para acelerar o desenvolvimento e acabou expondo informações confidenciais em um contexto de inteligência artificial aberta, o que permitiu que essa informação chegasse aos concorrentes. Portanto, é necessário ter muito cuidado.

Quando falamos de dignidade humana, trata-se de um princípio que afirma que a inteligência artificial não pode desrespeitar, manipular ou reduzir pessoas a números. Isso é uma base fundamental quando tratamos do tema. É o fundamento por trás de proibições do IA-ACT, como manipulação subliminar, e da necessidade de supervisão humana. Assim, ao abordar esse ponto, estamos estabelecendo uma base sólida para a dignidade humana. Uma inteligência artificial não pode desrespeitar ou julgar as pessoas por aspectos físicos, e isso tem uma base muito sólida, com aplicações importantes no contexto da inteligência artificial.

Considerando a ética como vantagem competitiva

Por fim, a ética como vantagem competitiva. Quando falamos de ética, ela não é um custo, nem um trade-off em que abrimos mão de um modelo mais performático em função de ter uma base ética. Ela é um multiplicador de valor. Empresas que incorporam ética desde o início reduzem riscos, principalmente, e aumentam a confiança dos clientes. As pessoas passam a confiar em entregar seus dados ou utilizar esses serviços porque sabem que há uma empresa ética com responsabilidade humana por trás das decisões. Assim, os clientes ficam mais confiantes e os reguladores criam projetos de IA-ACT que realmente escalam. Não se trata de algo que implementamos apenas para ganhar uma concorrência, mas que não persevera ao longo do tempo por falta de bases que sustentem a confiabilidade do cliente.

Concluindo e preparando para o próximo vídeo

No próximo vídeo, vamos avançar mais um pouco. A ideia é construir um raciocínio ao longo desses vídeos e capítulos, formando uma consciência sobre o tema e entendendo como a governança de IA pode ajudar em projetos de IA bem estabelecidos, que consigam perseverar ao longo dos anos e tornar a empresa, além de protegida, mais competitiva. Nos vemos no próximo vídeo.

Fundamentos de Ética Aplicada à IA - Justiça algorítmica e impacto social

Introduzindo preocupações éticas em projetos de IA

Olá, bem-vindos a um novo capítulo de nossa conversa. Vamos agora dar um passo adiante nas preocupações éticas dentro de projetos de inteligência artificial. Iniciaremos uma discussão sobre como a IA pode reproduzir e amplificar desigualdades. Por que devemos ter essa preocupação em projetos de inteligência artificial? Basicamente, qualquer projeto de IA depende de um contexto de dados. Costumamos dizer nos projetos em que participamos que não adianta a empresa investir em inteligência artificial se não tiver uma base sólida de dados e uma governança de dados importante para subsidiar e evitar riscos éticos, como estamos discutindo aqui.

Quando falamos de dados e de dados históricos, eles carregam padrões sociais e desigualdades. É notório que dados históricos possuem esses vieses intrínsecos. Os modelos aprendem a reforçar esses padrões sem perceber, potencializando características eventuais de um conjunto de dados. Se esses dados não estiverem bem estruturados e pensados com essa preocupação, isso pode ser amplificado com as aplicações de inteligência artificial. Algumas variáveis podem discriminar de forma indireta. Por exemplo, o código postal pode indicar onde a pessoa reside ou convive, o nível educacional, o tempo de emprego, tudo isso pode gerar uma discriminação encadeada e amplificada em projetos de IA.

Explorando a injustiça algorítmica

Por que a injustiça algorítmica é tão difícil de detectar? Os erros não aparecem facilmente nas métricas globais. Ao desenvolver um modelo de IA, preocupamo-nos muito com a precisão e o desempenho do modelo, mas às vezes não nos preocupamos tanto com a justiça, ou fairness, do modelo. O desempenho pode ser alto, mas injusto para algum subgrupo. O modelo pode mostrar 90% de acerto e ainda assim errar sistematicamente para um grupo específico. A precisão geral do modelo não é suficiente; precisamos nos preocupar com esses subgrupos dentro do conjunto de dados com o qual estamos trabalhando. É uma das maiores armadilhas operacionais da IA focar apenas no desempenho do modelo e nos benefícios financeiros, sem considerar a questão de subgrupo, contexto e injustiça com alguma característica dentro do mercado.

Exemplificando impactos práticos da IA

Para tornar isso mais claro, vamos a alguns exemplos práticos. Em contextos onde a IA é utilizada para crédito, os modelos podem penalizar grupos por sua situação socioeconômica. Podemos negar uma linha de crédito a pessoas que mais precisam, de uma região específica ou de um contexto de microempreendedor individual (MEI), por exemplo, se houver um viés nos dados amplificado no projeto de IA. Sem uma preocupação ética e um acompanhamento humano, podemos prejudicar um subgrupo ao utilizar IA para uma linha de crédito.

Em processos de recrutamento, ocorre o mesmo. A seleção pode ser enviesada por padrões históricos. Se o modelo não estiver bem ajustado, pode escolher apenas homens para cargos de liderança ou apenas pessoas brancas, por exemplo. Essa é uma preocupação em processos de recrutamento utilizando IA sem supervisão e governança adequadas.

Discutindo segurança e policiamento preditivo

Na questão de segurança, o policiamento preditivo pode reforçar ciclos de vigilância. Aplicações como o SmartSampa, um produto de IA utilizado pela prefeitura de São Paulo, se não forem bem preparadas e desenvolvidas considerando esses pontos, podem em algum momento utilizar características que enviesem o modelo. Portanto, é um ponto muito importante a ser considerado.

O exemplo citado de SmartSampa tenta identificar uma pessoa com uma base de dados de indivíduos com processos judiciais que já estão sendo procurados pela polícia. Este é apenas um exemplo para mostrar que o governo e a gestão pública estão cada vez mais utilizando técnicas de inteligência artificial. Quando desenvolvemos modelos preditivos para identificar comportamentos suspeitos ou preocupações em nossos negócios, precisamos nos atentar ao viés e ao contexto, considerando subgrupos, para que isso não seja prejudicial. Isso traz um impacto social: quem se beneficia e quem é prejudicado quando utilizamos uma aplicação de inteligência artificial?

Analisando consequências organizacionais e sociais

No exemplo de recrutamento, se contratarmos apenas homens, eles ficarão satisfeitos, pois a competição será reduzida pela metade, já que as mulheres não participarão. Mas e as mulheres? O que acontece com elas? Essa é uma questão muito importante dentro de um contexto ético, sólido e consistente em um projeto de inteligência artificial. O acesso desigual e as oportunidades de trabalho são preocupações relevantes, como mencionado anteriormente sobre recrutamento. Existe o risco de exclusão digital e discriminação automatizada. Se o viés introduzido nos dados não for controlado adequadamente, ele pode se amplificar, resultando na exclusão digital de algum nicho.

Se um processo de recrutamento, como o de muitas grandes empresas, utiliza algoritmos de inteligência artificial para a primeira triagem, sem a devida preocupação, um nicho pode ser excluído digitalmente para sempre. Assim, esse grupo nunca passará do primeiro nível, que é o da inteligência artificial, e nunca chegará a conversar com o responsável pela vaga ou com o gestor da empresa. Isso deve gerar muita preocupação. O reforço de estereótipos históricos, como mencionado, é um risco, pois os vieses já presentes nos dados podem ser amplificados com a aplicação da inteligência artificial.

Enfatizando a importância da governança de IA

Quais são as consequências organizacionais desse problema? A perda de confiança dos clientes e da sociedade é fundamental. Se percebemos que uma empresa utiliza soluções de inteligência artificial que discriminam subgrupos, podemos deixar de querer nos relacionar com ela. Hoje é um subgrupo, mas amanhã pode ser qualquer um de nós. Isso pode resultar em problemas de confiança com a marca, danificada por essas aplicações. Também há riscos regulatórios, que serão discutidos em vídeos futuros. A empresa pode enfrentar penalizações por discriminação, além de danos à reputação e à marca.

É crucial proteger o bem mais valioso da empresa: a marca. Quando falamos de empresas como Google ou Microsoft, já temos uma ideia de suas linhas de negócio. Imagine uma marca assim com a reputação danificada por uma aplicação de inteligência artificial mal desenvolvida. As consequências sociais também são significativas, pois erros podem se transformar em desigualdade estrutural. A inteligência artificial influencia decisões públicas e privadas, exigindo cuidado e acompanhamento, além de considerar a dimensão ética e moral nos projetos.

Concluindo com a importância da governança e ética

Nosso papel na governança de IA é apoiar as pessoas desenvolvedoras que criam esses projetos, garantindo que tudo seja feito da melhor maneira. As pessoas desenvolvedoras sempre buscarão desempenho e modelos que identifiquem oportunidades. Nós, na governança de inteligência artificial, devemos garantir que, além do desempenho, haja governança e questões éticas e morais associadas a projetos que tragam oportunidades para a empresa.

No próximo vídeo, avançaremos nessa discussão. Esperamos que esteja sendo proveitoso e faça sentido. É uma conversa que parece óbvia, mas muitas empresas, com grande apetite por participar desse mercado, às vezes negligenciam esse ponto crucial. Nos vemos no próximo vídeo.

Sobre o curso Ética em Inteligência Artificial: mitigando vieses e garantindo transparência

O curso Ética em Inteligência Artificial: mitigando vieses e garantindo transparência possui 133 minutos de vídeos, em um total de 46 atividades. Gostou? Conheça nossos outros cursos de IA para Negócios em Inteligência Artificial, ou leia nossos artigos de Inteligência Artificial.

Matricule-se e comece a estudar com a gente hoje! Conheça outros tópicos abordados durante o curso:

Aprenda IA para Negócios acessando integralmente esse e outros cursos, comece hoje!

Conheça os Planos para Empresas