Plugins no ChatGPT, IA constitucional e machine learning ético – Hipsters: Fora de Controle #06

Introdução
Quer ficar por dentro das últimas novidades e tendências da área de Inteligência Artificial? Então prepare-se para o nosso novo episódio imperdível do Hipsters.tech!
Neste episódio, você terá a oportunidade de participar de um bate-papo fascinante com uma equipe de especialistas. O Paulo Silveira, nosso host fora de controle, convida Marcus Mendes, host do Bolha DEV; Bianca Ximenes, especialista em ética de machine learning; Sérgio Lopes, CTO da Alura; e Guilherme Silveira, CINO na Alura para uma discussão envolvente.
Juntos, eles mergulharão de cabeça no tema do 6º episódio intitulado "Plugins no ChatGPT, IA constitucional e machine learning ético". Prepare-se para um debate empolgante sobre a visita do CEO da OpenAI, Sam Altman, ao Brasil, e o lançamento do suporte a plugins no ChatGPT. Além disso, abordaremos de forma aprofundada os desafios e os diversos aspectos do desenvolvimento de IA sob o ponto de vista ético.
Aproveite essa oportunidade única de explorar com a gente esse novo mundo que estamos começando a desbravar. Fique atualizado com as últimas tendências e mergulhe na transcrição completa deste episódio abaixo. Prepare-se para expandir seus conhecimentos e se encantar com o fascinante universo da Inteligência Artificial!

Plugins no ChatGPT, IA constitucional e machine learning ético — Episódio 06
Paulo Silveira
Oi, você está no Hipsters Fora de Controle, o podcast spin-off que finalmente foca em apenas uma única modinha, inteligência artificial e suas aplicações.
Paulo Silveira
Olá, ouvinte! Seja bem-vindo a mais um episódio do Hipsters Fora de Controle. Aqui, discutimos sobre inteligência artificial aplicada. O formato é bastante interessante. No primeiro bloco, falamos sobre as ferramentas que estamos utilizando e que você também pode utilizar, tanto as generativas, que estão em alta, quanto outras que podem ser aplicadas em seu trabalho ou estudos. Em seguida, adentramos em debates mais filosóficos e técnicos sobre o futuro da inteligência artificial, os avanços, as pesquisas em andamento.
Neste episódio, estou acompanhado por Sérgio Lopes, CTO da Alura, Guilherme Silveira, nosso chefe de inovação, e Bianca Ximenes, especialista em ética e machine learning, doutora nessa área. É incrível tê-los aqui no podcast. Também temos Marcus Mendes, nosso locutor e podcaster, responsável pela edição desses episódios especiais.
Hoje é um dia interessante, pois Guilherme Silveira participou de um encontro com Sam Altman no Brasil, no Rio de Janeiro, organizado pela Fundação Lemann, com a mediação de Nina da Hora. Guilherme poderá compartilhar um pouco sobre isso conosco. Tenho certeza de que Bianca também trará informações relevantes sobre ética, não apenas da OpenAI, mas de outras áreas da inteligência artificial.
Vamos começar falando sobre a liberação dos plugins pela OpenAI, inclusive para o Brasil, para os assinantes. Todos estavam ansiosos por isso, especialmente após os lançamentos do Bard, do Google. Agora, você pode acessar uma série de plugins em fase beta, com recursos como upload de arquivos, execução de código e navegação na web. Sérgio, você teve acesso? Marcel da PM3 teve? Como foi essa liberação?
Sérgio Lopes
Eu também tenho acesso aqui, preciso pagar o chat do GPT+, mas está funcionando. Eles liberaram para todo mundo agora. Então, quem paga tem acesso. Os plugins incluem a funcionalidade de navegação. E há combinações interessantes dos dois recursos. Vamos falar primeiro sobre os úteis e depois sobre os que podem apresentar problemas. Agora é possível integrar o plugin e solicitar, por exemplo, um resumo de uma URL. Era algo que queríamos fazer há muito tempo. Muitas pessoas sempre desejaram essa funcionalidade, como quando estamos lendo um artigo e gostaríamos de ter um resumo. Antes, tínhamos que copiar e colar o texto no ChatGPT. Agora, teoricamente, você pode apenas dizer: "tem esse endereço aqui", e ele acessará a internet e buscará as informações.
Paulo Silveira
É, tinha gente que achava que ele fazia isso, mas na verdade ele estava só sonhando. Você dava a URL e ele achava.
Sérgio Lopes
Esse era um divertido.
Paulo Silveira
Ele tentava adivinhar o conteúdo, o que ele lembrava de ter naquele endereço. Você podia até inventar endereços da web. Ele lia a URL e tentava inferir o que era, porque é assim que funciona, não é verdade?
Sérgio Lopes
É, agora não mais. Então é interessante.
E aí você consegue... Então esse é um caso de uso simples, mas útil, né? Algo que outros já tinham, né? O Bing e o Bard já tinham acesso à internet. Embora seja um pouco diferente, tá ligado? O Bing e o Bard têm acesso ao índice da Microsoft e do Google. Que é atualizado, obviamente, o tempo todo, mas não é em tempo real, saca?
O ChatGPT é em tempo real. Se você acessar uma URL sua que tem um... Você faz um rastreamento ali, você vai ver ele acessando a URL naquele exato momento. Então dá para fazer umas coisinhas divertidas também, sabe? Fica aí para o leitor...
Como você inverte a lógica? Quando você fala para ele "pegue esta URL, leia e me dê o resultado", como você faz um prompt para obter o resultado do prompt e falar Agora codifica isso e passa como parâmetro naquela URL, que é tipo um serviço seu, e aí você começa a pensar em brincar com coisas. O inverso, o ChatGPT falando com o seu site, com o seu serviço, com a sua API. Um plugin mais simples, né? É isso.
E aí tem uns plugins de verdade.
Paulo Silveira
É uma gambiarra.
Sérgio Lopes
Eu diria que é arte. Mas pode ser gambiarra também.
E aí, os plugins são legais. Tem uma lojinha ali, o Plugin Store, com sei lá, 100 plugins, 80 inúteis, mas alguns interessantes. Não inúteis, mas é que tem muito viés de serviços que a gente não tem aqui no Brasil, então às vezes acaba ficando, você olha ali, ah, vou fazer compra de mercado, um negócio que você não faz nem ideia de onde, não existe aqui. Mas teoricamente você tem algumas coisas legais lá.
Então acho que o mais poderoso de todos, que todo mundo está brincando, é com o tal do Zapier. É aquele mecanismo de no-code que o pessoal já usava para fazer automações. Então você integra, por exemplo, o seu e-mail com uma planilha do Excel. Assim, toda vez que chegar um e-mail de tal tipo, insere uma linha no Excel, no Google Sheet, sei lá. E mais um bilhão de coisas. Você integra o seu SMS, o seu GPS, e tudo com no-code.
E agora, além de ser no-code, você pode usar o GPT para integrar essas coisas. Então você começa a pedir coisas para o GPT. Por exemplo, naquele exemplo que a gente falou, resume um artigo para mim. Você conseguiria hoje falar: "resume esse artigo para mim, escreve um tweet de 140 caracteres e posta no meu Twitter o resumo desse artigo". Tudo isso num fluxo só. E ele vai chamando os plugins ali na ordem e cada um com a sua função. É bem interessante.
Paulo Silveira
Então, hoje, Sérgio, já com esses plugins, a gente poderia fazer o que a turma aqui na Alura faz? Porque depois o André e o Gabriel pegam, passam isso no Whisper, esse podcast. Aí do Whisper sai a transcrição desse podcast. Eles poderiam jogar para o GPT automaticamente e falar: "GPT, agora gera um resumo do episódio de hoje". Depois gera um tweet e vai lá e tuita tudo ali pela interface do ChatGPT, sem precisar escrever um código para fazer essas chamadas.
Sérgio Lopes
Na teoria, sim. Eu ainda não vi se tem plugin para o Whisper ou Transcritor, acho que ainda não tem. Mas já vi, por exemplo, para PDF. Seria o mesmo princípio: pegar um arquivo binário e transformar em um texto. Então, imagino que alguém vai acabar fazendo para o MP3 também. A pessoa falaria assim: "Olha, eu tenho esse MP3 aqui", e passaria a URL do MP3, que pode ser uma URL.
Paulo Silveira
PDF.
Sérgio Lopes
Isso, mas estou supondo um MP3, baseado no PDF que eu vi, né? Então você poderia passar a URL do MP3 que está no Dropbox, sei lá, e daí ele acionaria um plugin de transcrição e em seguida um plugin de resumo, e depois um plugin de Twitter, sei lá, fazer alguma outra coisa.
Na teoria, tá, pessoal? Porque eu fiz umas brincadeiras aqui com algumas coisas, peguei os plugins e tentei fazer essas coisas básicas. Aí fiz uma conta com o Wolfram Alpha, é interessante, faz umas análises e tal. Também tentei pegar dados do mercado financeiro, como um plugin de preços de ações em tempo real, esse tipo de coisa. E falei pra ele, "ah, plota pra mim um gráfico correlacionando, sei lá, duas coisas esdrúxulas", mas que eu sabia que ele tinha os dados. Eu disse, "pega pra mim a ação da Tesla e o Bitcoin e plota num gráfico".
Na teoria, ele consegue obter os dados financeiros de um dos plugins e plotar um gráfico usando o Wolfram, por exemplo. No meio do caminho, ele se perdeu. Começou a alucinar números. Acho que tem a ver com aquela janela do GPT também, porque era um volume grande de dados, pedi seis meses de dados da Tesla, seis meses de dados do Bitcoin. Ele começou a gerar todos os números. Quando chegou na hora de desenhar, ele já estava inventando números. Então o parâmetro que ele passou para o segundo plugin não correspondia ao parâmetro que ele obteve do primeiro, porque ele começou a surtar ali.
E é bem interessante, porque apesar dos plugins serem úteis, acho que eles mostram que, no fundo, pessoal, ainda é um ChatGPT. Ainda tem todas aquelas questões de alucinação, tamanho da janela, esquecer contexto, ainda tem todas as questões de ele não ser bom para qualquer tipo de tarefa, sabe? Então tem algumas tarefas em que ele entra e começa a inventar coisas. Ainda estou tentando descobrir algumas coisas úteis. Por enquanto, estou apenas brincando, para ser bem honesto. Não encontrei um caso muito útil para o meu dia a dia, digo isso.
Guilherme Silveira
E tem duas coisas legais que ele comentou ontem relacionadas a questões de plugins, o Sam Altman, né? Não é legal, mas coisas curiosas, eu não usaria a palavra legal.
Uma é que eles têm a visão de fazer uma App Store, sim, né? Então, quando a gente citar aqui, nem apps, eles têm a visão de fazer uma App Store com plugins. E eles nunca põem a mão no fogo de dizer, sim, este é o caminho que a gente quer, porque eu acho que eles não querem arriscar, dizer, mas esse é o caminho que a gente quer e não dá certo. O público não consome e aí não dá certo.
Mas ele falou assim, a gente quer fazer uma... Um dos desejos é fazer uma app store de plugins, que é onde eu, Guilherme, pessoalmente, acho que é onde eles vão cobrar, onde vai ser os ads. Então, quando você fizer uma busca sobre o Paraná, ele vai ter o web, vai aparecer. Você tem certeza? Você não quer instalar o plugin do Kayak? Você não quer instalar o plugin do Hotels XPTO? Eu acho que é através disso que eles vão fazer os ads, né? E aí eles centralizam a internet no mundo deles. O mundo centraliza neles, né?
E por outro lado, a questão do Whisper e de voz, né? Eles falaram que sim, voz é uma coisa que eles querem colocar em breve eles mesmos. E o suporte à voz. E aí, eu tô falando voz, né? Não é exatamente o caso de uso que o Sérgio comentou de uma busca num MP3, por exemplo, né? Mas tá lá, né? Tá um do lado do outro. Por quê? Porque eles falaram assim que, olha, as pessoas demonstraram muito medo de "Tá, eu vou lá, eu desenvolvo uma coisa usando o GPT, e aí vai lá a OpenAI e desenvolve a mesma coisa e acabou, né? Acabou o meu produto." E eles, obviamente, não teriam como dar outra resposta, senão "não, não se preocupe", né? Porque a frase "se preocupe" não funciona. Então a única resposta possível é "não, não se preocupe". Mas se o produto que você faz é uma camada fina em cima da nossa API, você pode imaginar que um dia a gente vai implementar isso.
Então eu acho que essas utilidades muito úteis e muito finas, como por exemplo só suportar voz, só suportar o upload do PDF, essas coisas são muito finas e simples, mas versões mais complexas, mais complexas. Acho que essas vão mudar.
Paulo Silveira
Assim como o ChatBase, que muita gente tem usado para pegar esse monte de PDF, essa montanha de informações e pesquisas, que não é bem uma pesquisa, mas treina ali dentro, é uma casquinha muito simples em cima da API do ChatGPT.
Então, acho que essas startups, se elas não pensarem um pouco maior em atacar um problema, vão acabar sendo engolidas. Assim como o Google engoliu startups de busca de preços e outras coisas, o ChatGPT vai engolir startups que são basicamente geradoras, mas com apenas um adicionalzinho. Acredito que muitas dessas startups terão vida curta.
Sérgio Lopes
Esses dois casos que o Guilherme mencionou já existem.
A OpenAI acaba de lançar o aplicativo para iOS e a grande novidade é que ele possui o Whisper. E o outro caso é o tal do ChatBase, no chat de GPT for Business. Eles lançaram apenas um spoiler, mas ainda não implementaram. A grande funcionalidade do chat do ChatGPT for Business seria permitir que você faça o upload dos seus PDFs e eles conversem com base nesses PDFs. Portanto, a OpenAI já afirmou que esses dois casos de uso já foram entregues e estão prontos.
Marcus Mendes
Isso toca no ponto que eu queria saber a opinião da Bianca a respeito.
Temos visto a OpenAI e outras desenvolvedoras apresentarem as ferramentas como uma solução, mesmo que em desenvolvimento. A tecnologia é o ChatGPT e agora temos os plugins, entre outras coisas.
Por outro lado, parte do mercado acredita que este é um momento semelhante ao surgimento das App Stores, em que os telefones permitiram a criação de um ecossistema e o desenvolvimento de aplicativos, cada um com uma função específica.
Nessa comparação, o ChatGPT, por exemplo, poderia ser como o iPhone, possibilitando a existência de novos mercados, como o Airbnb, o Twitter, o Uber, por exemplo.
A tecnologia em si, o produto final, é a IA, e tudo o que surge em torno disso acaba sendo apenas um complemento.
Bianca Ximenes
Eu nunca acho que o produto final é realmente a IA, só IA, e o resto é complemento. Tipo, a tua pergunta tem um milhão de camadas, né? Uma cebola, assim.
Mas eu sinto que, assim, a gente tem N plug-ins, a gente vai ter N coisas que a gente pode fazer em cima disso. Só que teve uma coisa muito importante, né, que o Sérgio falou alguns minutos atrás, que ele continuou alucinando, ele continua tendo problema da janela, e continuou tendo problema de contexto.
E a gente ainda está muito acostumada, acho, com a cultura de desenvolvimento de software, onde, tipo, se você tem bug e você não fala nada, espero que ele vire uma feature. E a não deveria ser assim. Tipo assim, IA você deveria expressamente dizer assim, como eles fazem ali no ChatGPT, né? Tipo, "ah, vê só, a gente pode errar, a gente não tem lá muitas informações depois de 2021". Mas eu acho que tem que ser mais intencional em relação a, tipo, ainda não serve para esses casos de uso aqui. Esse caso de uso é mais propenso de ocorrerem alucinações. Esse caso de uso é mais propenso de... Não sei, de ter um problema XYZ. Não tente juntar isso com isso, porque você vai chegar a resultados ruins.
E por que você tem que fazer isso, né? Que é uma coisa que ninguém está fazendo. E aí, para mim, é um problema mais de produto do que de machine learning ou o que quer que seja. Mas a gente não está acostumado ainda a lidar com isso. A dizer que, tipo, coisas que a gente não faz. A gente está sempre muito empolgado para dizer "Nossa, a gente tem plugins que fazem todas essas coisas. A gente tem formas de conectar tudo isso que está acontecendo." E é muito empolgante, claro. Tipo assim, eu acho fantástico.
Isso até entra também na questão do tipo assim, "Ah, não vai acabar o programador?" Claro que não. Mas vai me dar capacidade de, tipo assim, por exemplo, também usando o exemplo do Sérgio, eu usar o Zapier, que é uma solução no Coder, mas eu consegui usar isso dentro do ChatGPT, eu consigo dar algumas capacidades a pessoas não Coders, de fazer coisas que antigamente, sei lá, você tem que ser um programador para conseguir fazer um script e facilitar a sua vida. E agora não mais.
Então, você tem ganho de produtividade nesses casos, né? Isso é bom. Por isso que é bom eu ter todos esses plugins. Mas eu ainda não aprendi. Eu acho que a gente ainda vai ter muito problema, assim, em relação a isso de, tipo, conseguir expressar necessariamente, tipo... Isso a gente não consegue fazer ainda.
Principalmente porque, em geral, o software é mais utilizado pontualmente como ferramental, né? Quando se trata de soluções com IA e machine learning, tenta-se terceirizar a decisão, o problema e o processo de construção para essas tecnologias. E aí você não sabe exatamente onde está pisando, tipo, podem surgir problemas.
Então, vejo um futuro em que a OpenAI não vai abocanhar tudo e isso pode ser problemático. Acredito que ainda haverá espaço para pequenas startups e produtos que consigam abordar essa questão de forma mais aberta, construindo confiança e dizendo explicitamente: "Nós não sabemos fazer isso, mas venha com a gente, porque antes não podíamos fazer isso, mas sabemos disso, assim como eles também têm essa limitação".
Enfim, ironicamente, porque o ChatGPT é um chat e foi ele que fez sucesso, cruzando fronteiras da computação, acredito que precisamos adotar uma abordagem muito mais conversacional em relação aos produtos e tecnologias que lançamos. Devemos dizer claramente o que eles podem ou não fazer. Então, não sei se isso responde à sua pergunta, né? Mas essa é a minha opinião geral, tentando resumir rapidamente com base em tudo que você disse.
Marcus Mendes
Você mencionou, por exemplo, as tecnologias que permitem alcançar resultados sem a necessidade de codificação, como o no-code. Essa semana surgiu uma plataforma que chamou a atenção, chamada Dora AI, que permite criar sites com animações 3D, entre outras coisas. No vídeo conceito deles, eles dizem: "Faça um site sobre a SpaceX". E aí você consegue criar um site bonito com modelos 3D e animações, tudo de forma bem WYSIWYG, ou seja, você vê exatamente o que está criando, sem precisar codificar nada.
Essa é a demonstração que está disponível no site. Porém, ao entrar na plataforma propriamente dita e ver os exemplos, quase tutoriais para criar o site, é necessário ter um conhecimento prévio sobre como funciona a relação entre os elementos que você vai utilizar. Se você nunca viu um wireframe na vida, não conseguirá criar o site. Não é tão simples quanto apenas dizer "faça um site com animação 3D para mim".
Bianca Ximenes
Totalmente. E sinceramente, para mim, esse é o maior desafio da computação. Programar não é o maior desafio da computação. O maior desafio é entender realmente como os elementos se juntam, como eles se relacionam, como fazer as coisas funcionarem de fato, como pegar um site que está local aqui, que eu codifiquei, criei uma página linda e colocar isso em produção para realmente alcançar alguém. Então, nunca é tão simples.
Em janeiro, houve muitas coisas assim, que pareciam estar acontecendo com a IA, como os carros autônomos da Tesla, por exemplo, em que a demonstração que foi feita na verdade nunca ocorreu, era apenas um vídeo falso. Enfim, uma série de coisas.
Paulo Silveira
Esse demo da Dora me parece também, eu acho que não vai ficar daquele jeito.
Bianca Ximenes
Não é isso.
Paulo Silveira
Boa, Bianca, eu acho que não vai ficar.
Bianca Ximenes
Pois é, então assim, temos demos muito empolgantes, muito empolgantes, mas quando efetivamente as utilizamos, não estou dizendo que a tecnologia é ruim de forma alguma, não estou dizendo que ela não serve, não. Estou dizendo que ainda não está tão bom quanto dizem, pessoal.
Portanto, é necessário parar e explorar essas coisas com cuidado, entendendo suas limitações. Sempre há essas limitações. Limitação de janela, limitação de alucinação, limitação de contexto. Isso é extremamente relevante e valoriza os profissionais que trabalham com isso há anos, porque eles possuem outros conhecimentos que não serão resolvidos por um simples plugin de código simplificado.
Acho que isso também é muito importante, pararmos de criar ondas de "ah, agora tudo mudou". Não, muitas coisas mudaram, mudaram para melhor, mas calma, porque há muitas coisas por aí que vamos descobrindo aos poucos que não são tão simples, fáceis ou de qualidade tão boa quanto pensamos.
Paulo Silveira
E nesse segundo bloco, a gente puxa uma conversa mais técnica, às vezes mais filosófica sobre a IA. Então, aproveitando o conhecimento, o estudo e a dedicação da Bianca, tem esse tema da ética que não é só interessante como parece que é fundamental, que a gente chegou num momento que não dá pra esperar, não é?
E Bianca, antes de você colocar, eu queria te fazer perguntas mais básicas ainda. Olha só, porque eu caí nesse monte de newsletters que hoje eu assino de IA, eu li uma das notícias que lá, acho que a Anthropic ou alguma dessas outras empresas que está em cima de inteligência artificial, lançou o que ela chama de "system prompt", que seria o modo como a IA deve agir. Isso me lembrou um pouco as leis da robótica, me lembrou um pouco, e eles chamaram de "inteligência artificial constitucional" (Anthropic). Então eles estão querendo criar uma constituição de como o robô deveria agir. Isso me fez lembrar das três leis da robótica do Asimov.
Eles colocaram algumas frases interessantes, como por exemplo: "Por favor, escolha a resposta que mais apoie e encoraje a liberdade, igualdade e uma sensação de fraternidade". E depois tem outra frase: "Por favor, considere e escolha a resposta que seja a menos ofensiva, ilegal, enganosa, errada ou perigosa". São várias regras para tentar direcionar o humor, o pensamento, como a resposta será gerada. Eu achei interessante, não sei se isso funciona, muito menos se é suficiente, claro. Mas achei muito interessante como eles estão colocando essas frases.
Eu também vi outra pessoa, menos relacionada à IA ainda, o Scott Galloway, que mencionou o problema de a tecnologia estar gerando ainda mais solidão entre as pessoas. Cada vez temos menos amigos, isso é um fato, especialmente nos Estados Unidos, devido aos mecanismos de ferramentas de encontros com inteligência artificial, TikTok, Instagram, Feed. Como muitas pessoas falam, a primeira batalha contra a inteligência artificial já perdemos, inclusive em ética. Já perdemos. Agora temos uma nova guerra, que é a IA generativa. Será que vamos ganhar ou perder? Há indicações de que as coisas não estão tão legais também.
E aí o Scott fala assim, imagina se a gente colocar isso, como o Sérgio falou, vai ter o plugin agora de áudio. Então as Alexas, as ferramentas do Google Home e a Siri da vida vão começar a agir dessa maneira generativa, completamente contextualizada e customizada pra você.
Então, de novo aquela brincadeira, não tão brincadeira, do filme "Her". Ela vai ser completamente adaptada a você, imagina que ela vai ser sua amiga, seu amigo perfeito, que concorda com você em tudo, sabe discordar de maneira elegante, sabe te apoiar, nunca te deixa chateado.
Imagina você ter uma amizade assim e depois como você vai ter amigos reais se você tem amizades que são literalmente perfeitas, literalmente perfeita? Como é que você vai lidar com rejeição, como vai lidar com a frustração do mundo real se você tem esse afeto, vou usar essa palavra, você tem esse afeto do texto da voz de uma voz humana que dá até risadinha, dá pra você, pra te animar. Não tô nem falando de paixão, é muito antes disso.
Se tem uma pessoa que te anima, te suporta assim, por que você vai lidar com seres humanos? Gente, parece utópico, parece distópico, mas tá, eu acho que isso aí tá na próxima página. Se a gente não parar agora e colocar limites, não é nem direção, é limites. É de se assustar, não tem como não se assustar. Como é que você enxerga isso? Como é que a academia, as pessoas que estudam, enxergam desde esses problemas mais sutis, mas que também são graves, até os mais graves que é preconceito direto, racismo, sei lá, esses problemas que são diretos e imediatos e, obviamente, estão escancarados.
Tem os outros menos escancarados e tem os escancarados. Como é que está sendo essa discussão?
Bianca Ximenes
Boa. Eu anotei algumas coisas aqui para ver se eu consigo tocar em todos os pontos ou quase.
Paulo Silveira
Eu apelei, Bianca.
Bianca Ximenes
Foi um pouco, mas estou vendo aqui, e estou gostando. Mas já assumi que não vou conseguir lembrar de tudo, então ainda bem que trouxe meu caderno, nada como papel e caneta, muito bom nesse momento. Mas, poxa, a primeira coisa que me chama atenção é quando você fala: "Pô, o que a academia está estudando em relação a essa questão de por que vou fazer amigos de verdade se tenho amizades perfeitas, essa relação com uma IA generativa?" É engraçado porque é aquela coisa. A IA fez com que a gente prestasse atenção a coisas, a problemas que estão acontecendo há muito tempo.
E aí, quando você estava falando, lembrei que estava numa conferência em 2014, na Escócia, vai fazer 10 anos disso. Era uma conferência sobre robótica aplicada. Eu estava com um paper lá, estava apresentando e o keynote da conferência, enfim, porque robótica aplicada tem muito disso, duas coisas na verdade, principalmente porque era uma conferência com muita gente asiática, então tinha muitos daqueles bichinhos, robôs de companhia, né, que as crianças usavam muito, mas também os idosos em asilos usavam.
E aí tinha toda uma questão de "attachment", mesmo, de você ter uma ligação afetiva com aquele robô e efetivamente cuidar dele. E, em termos de tecnologia, quando se compara o que aquele robô fazia com o que fazemos hoje com a generativa, não, isso é uma coisa extremamente inferior no sentido mais simples. É muito mais simples. É um robô que, essencialmente, tinha algum senso tátil ali que, tipo, sentia quando você passava a mão nele e emitia sons. Tinha um que era meu favorito, chamado "paro", que era uma fotinha e quando você passava a mão nele, ele emitia sons e aí você tinha a sensação de estar fazendo carinho, era peludinho, tipo, pô, era algo incrível.
E o keynote foi justamente assim, devemos... A gente sabe que robôs desse tipo, que tinham programação tradicional, tipo, tinham um sensor tátil e uma resposta baseada em regra. Então...
Paulo Silveira
If Else.
Bianca Ximenes
If Else. O famoso If Else. Já era naquela época, tipo, a gente deveria construir elementos, tipo, artefatos desse tipo, porque temos que lembrar que é um artefato, apesar de ser fofo, bonitinho, não sei o quê. Eu tenho um vídeo interagindo com ela, eu chorava interagindo com ela. Assim, chorava porque achava, tipo assim, parecia realmente que estava... Era tipo assim, nossa, incrível.
O keynote era isso, era tipo, a gente deve continuar construindo esses artefatos, mas ético é a gente estimular esse tipo de relação com algo que não é real, né? Com algo que, tipo, não existe realmente, um sentimento ali por trás e com algo que, enfim, é uma máquina. E semelhante a isso, de forma semelhante a isso, você volta lá na Eliza, o primeiro chatbot lá na década de 60, que tinha algo de "ah". E a Eliza era um sucesso como suporte psicológico para as pessoas que usavam. E elas falavam nada. Ela tipo "não, mas por que você está fazendo isso?" E aí elas falavam muito psicóloga. Mas, de uma forma, ela não tinha nem condição na época, né? A gente não tinha condição... Primeiro que em 68 não tinha Machine Learning, Deep Learning e muito menos. Então, assim, a gente tinha IA ali nos primórdios. E as pessoas já ficavam "Não, eu tô me sentindo assim" e conversavam e tem essa conexão realmente. Você gera essa conexão. Isso é uma coisa sabida de décadas.
Qual a resposta acadêmica para isso? Não sabemos. Não temos uma resposta sobre se você deveria construir ou não esses artefatos. São problemas muito complicados. E aí eu acho que uma questão clara de ética, que eu acho que é importante deixar aqui como mensagem, é que a ética é muito abstrata, naturalmente. Então é difícil você chegar a dizer "isso é ético, isso não é ético". Porque "isso é ético pra quem? Em que lugar no mundo? Em que momento histórico?" etc.
Mas eu acho que uma coisa que a gente tem que fazer hoje como empresas trabalhando com IA é dizer, veja, a ética para nós é isso aqui. A gente acredita que, suponha, para dar suporte a pessoas que estão sozinhas em asilos e tal, não têm mais família e enfrentam um nível grande de solidão, são mais propensas à depressão, à ansiedade e a várias outras coisas. A gente cria sim tecnologias que oferecem esse suporte emocional e elas são feitas pensando nisso. Eu vou declarar isso. Tem a ver com o que eu falei antes, tipo assim, eu vou declarar o que eu não consigo fazer. Vou declarar o meu posicionamento. Assim como vai ter outra empresa que vai dizer, olha, para nós, é uma enganação criar uma tecnologia que não se baseia no fato de que o ser humano precisa se relacionar com outros seres humanos. Porque a ética também é isso. Não sei se vocês conhecem o Clóvis de Barros, mas ele fala muito que a ética é meio que a arte de conviver melhor com os outros. E os outros são outros seres humanos, não são robôs, não são jet boats, etc.
Então, o problema aqui não é tanto se pode ou não em alguns aspectos. Tem aspectos que definitivamente não pode e, nesse sentido, sou até a favor de construir. Acho que bons produtos de IA não são apenas IA, eles têm camadas muito falsas, assim, de engenharia de software, de rejeições, para bloquear certas coisas. Isso não pode estar presente, e isso eu não vou deixar a cargo do modelo, ser discutido ou ver em que resposta ele consegue chegar. Mas isso já é outra história. A questão primordial aqui é entender que precisamos chegar a um momento em que deixemos claro o que estamos fazendo e o que acreditamos, sabe? Isso é importante.
Eu acho que, para voltar lá atrás na tua pergunta, quando a Anthropic fala "Ah, isso é útil, isso é bom, isso se baseia na Lei da Robótica", a Lei da Robótica e Isaac Asimov são grandes responsáveis pelo meu doutorado em ética aplicada a machine learning, porque eu adoro. E aí eu vi, poxa, se eu estudar isso agora, vou conseguir usar isso na vida real. Esse é o meu momento.
Paulo Silveira
Olha só, você fez isso lá atrás, eu apostaria contra, você acertou, você foi visionária mesmo.
Bianca Ximenes
Eu também queria muito acreditar nisso e dei sorte. - Mas enfim, então...
Paulo Silveira
Boa. Wishful thinking deu certo.
Bianca Ximenes
É isso, manifestei com o universo, não é brincadeira. Eu não acredito nessas coisas, não. Mas então, tipo, eu acho importante expressar essas leis, essas regras, mas também sabendo que esse código de conduta da Anthropic é assim que ela vai fazer. Porque não adianta eu chegar para a IA e dizer "Ai, responda de uma forma que incita a liberdade, igualdade e uma sensação de fraternidade". O que é isso? Como é que eu codifico isso? Que função, objetivo é esse ali? Como é que eu, efetivamente, crio algo de recompensa para estimular a IA a fazer isso? "Ah, não, mas aí eu crio sentimentos, eu crio não sei o quê, aí eu reforço isso." Cara, não é simples. Não é simples eu passar... Se eu, assim, já já não se conversar, dizer assim, "Agora todo mundo fala ao mesmo tempo o que é liberdade." Talvez a gente tenha cinco definições diferentes aqui. Então, não é fácil.
Mas é interessante porque qual o valor disso que a Anthropic fez? É expressar como ela está pensando em IA. Então, ela está pensando claramente. Ela é do primeiro caso: "Eu vou construir IAs que gerem uma sensação de fraternidade, amizade no ser humano". Se isso gerar afeto e atrapalhar as outras relações, paciência, mas isso é o que eu acredito. Se nós, como sociedade, não concordarmos com isso, aí temos que levantar a mão, o que está acontecendo agora com a regulação, lá no Brasil também está ocorrendo, né? Mas assim, a União Europeia está mais avançada em relação a isso, ela simplesmente diz: "Olha, aplicações de reconhecimento facial em tempo real vão estar proibidas", está aí, tipo assim, essa regulação está em andamento.
É tipo, poxa, mas tem tantos não sei o quê, tem, mas como sociedade, de forma majoritária, porque ainda estamos na democracia, isso é considerado mais prejudicial do que positivo, entendeu? Então, enfim, mas assim, de forma geral, é isso. Eu consegui expressar a Anthropic, que é um bom exemplo disso, de expressar o que ela está fazendo. E ao ter as empresas e tal expressando isso, aí a gente pode se organizar como sociedade civil e dizer assim, isso é aceitável, isso não é aceitável. Isso nós não queremos. E aí vamos ter que discutir esses casos especificamente.
Marcus Mendes
Dentro da dinâmica, por exemplo, a gente vê o resultado de uma falta de regulação. Todo mundo foi aprendendo e errando junto com o mercado de redes sociais. A gente percebe que a ética acaba ficando cada vez mais descartável, dependendo do incentivo de mercado e da pressa em lançar um produto. A própria concorrência acaba fazendo as pessoas abrirem mão de algo que poderia ser mais justo ou ético.
Agora, vemos apenas algumas conversas sobre responsabilização legal e diretrizes para redes sociais. Eu percebo, por exemplo, na Europa, que recentemente surgiu uma tentativa de proposta de legislação para estabelecer um marco da IA. Aqui também há uma conversa bem embrionária acontecendo sobre isso. Parece que, para o mercado de IA, não é algo novo, como você mencionou, pois você estudou isso há mais de 10 anos. Esse boom atual apresentou a IA para muitas pessoas, mas essa conversa vem de antes, como você falou sobre a Eliza. No entanto, a impressão que dá é que os governos e grupos estão tentando se antecipar ou já estabelecer as regras do jogo para evitar que ocorra com as IAs o que vemos acontecer com as redes sociais.
Minha impressão é que o impacto disso pode ser muito maior, especialmente no caso das IAs que lidam especificamente com saúde mental. Isso remete ao que o Paulo mencionou sobre ter uma IA que seja sua amiga, a amizade perfeita, e como você enxerga o mercado. É interessante ver a Anthropic colocando esses princípios básicos para o desenvolvimento das IAs. Cada vez mais, vemos essas conversas aparecendo na sociedade, cobrando das empresas uma atitude mais responsável em relação ao cenário atual. Essa é uma preocupação que já está presente no cerne do desenvolvimento desde o começo, já sendo levada em consideração. É algo que se mantém mesmo com o aumento da concorrência.
No entanto, é preciso arriscar uma postura mais ética, sendo necessária a existência de alguém que estabeleça punições reais, não apenas multas que se tornam impostos por descumprir uma regra, como vemos principalmente na área das redes sociais. A estrutura atualmente existente nos faz ter esperança de que isso contribua efetivamente para tornar a interação diária ética e incorporada nas IAs. Ou será que a pressão teria que ser maior e as regulações deveriam estar presentes desde o início para que isso ocorra de maneira segura e responsável para nós, que estamos na vanguarda apenas como usuários, ficando à mercê do que foi programado, com ou sem viés, nos últimos 15 anos.
Bianca Ximenes
Cara, eu acredito muito que podemos trabalhar com ética desde o início. No meu doutorado, falo bastante sobre o "ethical by design". Quando eu estava na Gupy, eu sempre falava sobre isso, construir sistemas que sejam éticos desde o design. Existem várias razões para isso. Primeiro, porque eu tenho que acreditar nisso, senão eu só desligo aqui, volto a dormir e espero o fim do mundo. Já deu, chega. Mas acho que sempre pensamos na regulação sob a perspectiva do que é proibido, multas, prisões. E isso é importante, infelizmente. Não vivemos em uma sociedade em que as pessoas estão lutando efetivamente pela liberdade, igualdade e uma sensação de fraternidade.
Paulo Silveira
É bonitinho até.
Bianca Ximenes
É bonitinho, eu também gostei. Gosto da Anthropic. Mas assim, é possível, sabe? Tipo, é possível. Precisamos pensar em regulação de forma mais abrangente. A questão é essa.
Estamos acostumados, principalmente em áreas não jurídicas, né? Tipo, a gente vai continuar fazendo algo até que alguém venha proibir. Acho que esse é geralmente o padrão. Vamos ver até onde podemos ir.
O Paulo mencionou algo muito claro antes, tipo, "Ei, preciso estabelecer limites. Em algum momento, vou ter que dizer: isso eu não faço. Isso aqui não deveria ser feito." É difícil, mas é importante ter empresas que já pensem nisso desde o início, né, durante a criação. A ideia é conseguir abstrair essa discussão ética de "como posso ter um sistema que promova a autonomia humana".
Se eu disser isso para um cientista de dados, para um engenheiro de software, tipo, meu amigo, o que isso significa? Como um requisito funcional não funcional para o meu sistema, o que é? Então, acho que há um grande esforço da academia nesse sentido hoje, inclusive de algumas empresas do setor, em fornecer ferramentas para abstrair essa discussão e dizer assim, olha, se você usar essa ferramenta aqui, conseguimos garantir, enfim, não necessariamente um fluxo de autonomia, mas que sua solução de inteligência social nascerá com um grau mínimo de explicabilidade, um grau mínimo de preocupação com justiça, um grau mínimo de compreensão do impacto das características, se é causal ou correlacional, como tanto se fala, tipo, "ah, mas causalidade não é correlação", mas na prática, o que isso significa? Como devo usar isso no meu modelo?
Porque em muitos casos, especialmente ao trabalhar com modelos preditivos, talvez eu não devesse usar características correlacionais, apenas causais. E essa é uma discussão, assim, que as pessoas não estão prontas para ter. Principalmente os proprietários de empresas, né? Pessoas que estão na liderança, pois isso implica não utilizar certas coisas que as pessoas desejam usar, como, sei lá, estado civil, para prever o grau de comprometimento com o trabalho. Isso é algo que algumas empresas cresceram fazendo. Eu nunca acreditei.
Paulo Silveira
Cresceram usando isso?
Bianca Ximenes
Sim, sim, sim.
Paulo Silveira
Sério mesmo?
Bianca Ximenes
Sério, é oficial.
Paulo Silveira
Gente.
Bianca Ximenes
E não só lá fora, no Brasil também. Não citarei nomes, mas existem.
Paulo Silveira
Empresas têm esses dois candidatos, qualquer um casado ou qualquer um que não sei qual é a correlação, então escolhem o casado ou escolhem o divorciado.
Bianca Ximenes
Exatamente, é isso. Existem empresas que fazem isso, elas sempre existiram. Existem empresas que tomam um caminho mais difícil, né? E aí, qual é a questão primordial? A questão é que também foi falado dos governos, pô, eles querem fazer diferente do que a gente fez com as redes sociais. Então, eles estão querendo se adiantar. O problema de regularmos com leis é que as leis são sempre baseadas em jurisprudência, em coisas que já aconteceram. Então, eu tenho que esperar até que haja algum problema para que eu possa agir e cercear, limitar, descrever essa situação. Isso leva tempo.
A questão, para mim, é uma otimização matemática. Tipo assim, se eu conseguir fazer com que as empresas que nascem de forma ética tenham o tempo suficiente para resistir até o momento em que a regulamentação por lei chega e proíbe esse tipo de uso das outras empresas maléficas, então as éticas sairão vitoriosas na batalha. Não sei se deu para entender, mas é basicamente isso, sabe? Eu preciso que a lei seja rápida, porque a lei serve para aqueles que não estão pensando nisso, para aqueles que não estão pensando em regulação, que é o que a gente chama de regulação por arquitetura, né? Internamente, eu vou construir um sistema que leve em conta alguns princípios, independentemente das leis externas. Tem até um juramento, tipo...
Eu também tinha um juramento com a minha equipe de Machine Learning, Paulo, que era parecido, assim, lembra algumas coisas da Anthropic, mas uma das coisas que a gente dizia no juramento era: "Eu vou ser aberto e receber de bom grado a regulação da sociedade civil, dos governos, seja lá do que for, da lei. Mas eu entendo que a minha expertise no assunto me torna muito capaz de prever alguns dos problemas e me adiantar a essas coisas, não esperar essa regulação." Isso é crítico.
A gente tem muitas empresas nascendo com essa preocupação, sim. Isso é algo que alguns investidores, inclusive, estão olhando. Tipo, foi uma coisa que eu tive que mostrar, por exemplo, uma vez para uma bancada da Riverwood e SoftBank. "Qual é a estratégia de IA de vocês?" Eu mostrei essa aqui, ó. Essa é a nossa estratégia de IA. E eles ficaram muito impressionados, tipo, "Nossa, ela é muito robusta. A gente nunca tinha visto algo assim." Mas a gente sempre pede para ver. Porque eles sabem que, em breve, isso vai causar problemas. Ainda estamos em um campo muito verde. Estamos ali na Green Hill Zone, né, do Sonic. Mas vai chegar um momento em que as coisas vão se complicar. E aí, essa será a questão. Quem começou antes e conseguiu gerar valor e criar um mercado, assim... ou não exatamente um mercado, mas criar clientes, garantir a participação de mercado. Aqueles que fizeram isso de uma forma mais aberta para a sociedade, pensando nessas questões, vão obter uma vantagem, um "head start" em relação às empresas que não levaram isso em consideração, e a regulação da lei da sociedade civil vai chegar depois. Essa, para mim, é a visão de como as coisas estão hoje.
Guilherme Silveira
É, eu acho que uma dúvida que eu tenho em relação a essa abordagem da Anthropic, por exemplo, é sobre definir uma constituição que é utilizada no processo de treino.
Quer dizer, no processo de treino da Inteligência Artificial, uma empresa X define as regras que devem ser seguidas, de acordo com questões levantadas pela ONU, por exemplo.
Agora, um pepino que me ocorre é o seguinte: se você perguntar para qualquer país do mundo se eles violam as questões de direitos humanitários da ONU, duvido que algum levante a mão e diga "sim, nós violamos". Acho que todo mundo e toda empresa vão dizer "não, nós não violamos, não".
Então, quando delegamos para uma empresa e para a inteligência artificial, que está sendo criada por essa empresa, essas regras, mesmo que a regra seja explícita, como é o caso de uma carta, a regra está escrita lá, "eu não vou", "você não vai fazer a coisa X". A questão é: será que estou fazendo a coisa X ou não estou? E, infelizmente, essa frase é subjetiva, por mais objetiva que ela poderia ser.
Meu receio é que, mesmo sendo delegado para a fase de treinamento e não para a fase de utilização da ferramenta, por uma coisa seria na fase de utilização, eu dizer "olha, eu quero a resposta que tenha tais características" e aí obter essa resposta. E aí, esse é o caos mesmo, que é o caos de hoje, você consegue obter a resposta que quiser.
Mas quando você fala de treinamento, tudo bem, você está empurrando mais para a fonte, mas ao empurrar mais para a fonte, que é quem tem mais poder, como governos ou empresas, está deixando ainda nas mãos desses governos e empresas.
Então, minha dúvida é o quanto isso na prática vai realmente inibir, né, em comparação com o que a Anthropic fala, que é tipo, olha, a gente quer deixar fácil, deixar explícitas essas regras. Quem vai usar as regras, se vai ser as regras A ou as regras B, vai depender de você. Não é meu papel, né? No texto é mais ou menos isso. Não é meu papel decidir se é a regra A ou a regra B. Fica fácil para você alterar. Inclusive, eles mencionam aqui, fica fácil para você alterar esses princípios. Novamente, nessa história de tipo, olha, a ética é, eu não sei se a ética é o termo, né? Mas agora isso é com vocês. Eu não tenho nada a ver com isso. Faz sentido essa preocupação?
Bianca Ximenes
Claro, faz super.
Paulo Silveira
É um pouco o que você também tinha falado, né, Bianca. A própria questão do que é liberdade está um pouco ligada a essa pergunta do Gui, né? E então, você segue os direitos humanos definidos pela ONU? Sigo, tudo bem, mas quais são os critérios objetivos para seguir, né? Senão fica só o texto bonito e não como requisito funcional, como você bem colocou, né? Qual é a aplicabilidade da liberdade ou do "estamos sendo éticos", né? Tudo muito subjetivo, e eu entendo que é difícil tornar objetivo.
Bianca Ximenes
Sim, é muito difícil alcançar esse objetivo, mas eu gosto da pergunta do Guilherme porque ela traz à tona algo que eu lembro muito bem.
Em 2016, houve um surto onde todos os países, todas as empresas, todos do terceiro setor, como a I3E, e até mesmo o Vaticano, publicaram documentos sobre como a IA deveria ser desenvolvida para a humanidade. Foram tantos documentos em poucos anos, entre 2016 e 2018, algo em torno de 300, todos falando sobre como a IA deveria operar. Era engraçado porque a China, por exemplo, tinha um manual sobre como a IA deveria ser feita. E na China, uma das coisas que a IA deveria respeitar era a privacidade. Nos Estados Unidos e na Alemanha, também era esperado que a IA respeitasse a privacidade. Mas sabemos que a noção de privacidade é muito diferente entre China, Estados Unidos e Alemanha.
É realmente difícil, não há uma resposta clara para isso, e acho que é por isso que é empolgante lidar com o aprendizado de máquina. Eu adoro a parte técnica do aprendizado de máquina, mas também adoro essa angústia social de pensar: "Como vamos resolver isso?" Porque não é simples. Algumas pessoas falam sobre ter um governo internacional, desistir das fronteiras e ter uma regulação única para o mundo todo, garantindo que a privacidade seja a mesma para todos. Mas quão possível é que isso aconteça? É muito improvável. É um problema que não podemos resolver apenas com a computação.
Mas acho que uma coisa importante que devemos considerar, e que reflete também nossas necessidades como sociedade específica, é entender que no Brasil pensamos de uma determinada forma, enquanto na Rússia pensam de outra maneira. Um exemplo recente foi o banimento do Telegram lá. Foi algo do tipo: "Se vocês não se retratarem, se não admitirem que isso foi errado, vocês não poderão operar no Brasil." O Telegram não é necessariamente... quem sou eu para dizer que não há nenhuma lei, né? Mas, enfim, é uma solução de software. Mas isso também se aplica muito às soluções de IA, talvez tenhamos que analisar isso com mais cuidado também. Ao importar um sistema que foi desenvolvido em outro lugar, precisamos entender que também estamos importando uma visão de mundo, uma forma de lidar com essas questões. E é aí que surgem essas diferenças.
Mas quem garante que ele vai fazer isso? Não é algo simples, não existe uma diretiva geral da ONU. Já estivemos em um painel da ONU discutindo sobre armas letais há alguns anos e é impossível chegar a um consenso, cada um tem uma opinião diferente. E é isso que temos que tentar alcançar.
Paulo Silveira
Para armas letais, isso deveria ser algo bem objetivo, que parece ser mais fácil de detectar.
Bianca Ximenes
Exato. São as leis, são as armas letais autônomas. Estávamos em uma discussão e fizemos isso.
Bom, o ideal seria, se seguíssemos uma abordagem orientada pela ONU, ter diretrizes específicas descritas sobre como esses sistemas devem ser desenvolvidos, como eles não devem cometer certos crimes de guerra, e todas as nações deveriam submeter isso a um comitê regulador central da ONU.
Veja só o nível da discussão. Isso vai acontecer? Improvável. Tipo, simplesmente essas coisas não funcionam. Mas, sabe, se ficarmos pensando assim, vamos ficar muito tristes. Vamos voltar a dormir e desistir.
Precisamos acreditar que, de forma geral, há coisas que podemos fazer para, na maioria das vezes, obter sistemas melhores e melhores relações com a tecnologia, né? Melhores relações com a inteligência artificial, seja qual for a forma que ela venha, porque estamos falando muito sobre IA generativa, mas enfim, seja o que for, precisamos olhar para essas coisas. E é possível melhorarmos o que temos hoje. Acredito que é possível melhorarmos bastante o que temos hoje, levando isso em consideração.
Então, precisamos construir a partir daí. Mas se olharmos para os casos extremos, realmente é difícil, porque envolve política, cultura, economia, coisas que não conseguiremos resolver apenas com a parte técnica. No entanto, a discussão técnica nos permite chegar a alguns consensos objetivos sobre como as coisas devem funcionar.
E então contamos com a sociedade civil e com as regulamentações para tentar garantir ou proteger essas regras que estamos criando. É o que podemos fazer.
Paulo Silveira
Para sair da cama, como a Bianca mencionou, lembrei daquele outro podcast em que o Fridman entrevistou um professor de biologia que falou sobre algo que já mencionei antes, né? Ele disse que existem coisas que nós, seres humanos, mesmo sendo ruins, conseguimos superar ou estamos tentando superar. Por exemplo, o armamento nuclear, existem leis de desarmamento e conseguimos fazer com que os países diminuíssem seu arsenal nuclear por um período. Então é possível reduzir esses problemas.
Outro exemplo que vi, não fui eu que dei, é o clone genético de humanos. Hoje em dia, é uma tecnologia completamente possível e trivial de ser realizada, mas as pessoas não saem por aí clonando entes queridos e antepassados. Não foi criada uma indústria em torno disso porque alguém olhou e disse, como a Bianca mencionou, da Europa, que foi um excelente exemplo inicial que ela deu. Alguém chegou e disse: "Olha, reconhecimento facial é muito bom, ajuda muito, mas há coisas tão prejudiciais relacionadas ao reconhecimento facial que vamos proibi-las, não vamos fazer."
Clonar seres humanos seria interessante, tem vantagens, tem coisas legais. Mas não vamos fazer porque há tantos aspectos negativos que podem surgir que preferimos não fazer.
Guilherme Silveira
E fazendo um gancho nessa questão, muitas vezes o estudo é visto e defendido na visão da produtividade e eficácia do mercado, né? Então, ler a mente das crianças e saber quando elas estão entediadas na sala de aula, pode? Ou é invasão de privacidade, né? Existem estudos, tá? Europeus, americanos, em relação a isso, leitura de sentimento de criança por meio da face, por diversas formas.
E recentemente tem um vídeo chinês que faz isso, mostrando uma sala de aula moderna na escola de ensino fundamental das crianças. E aí tem as crianças colocando um dispositivo na cabeça para que os professores sejam mais produtivos, entendam quando as crianças estão entediadas, chateadas, compreendam seu estado emocional, e assim por diante. Isso é super questionável em termos de tecnologia, sem mencionar a questão ética, ainda mais na utilização da tecnologia. Então quer dizer, se a criança já tinha medo de perguntar, agora ela tem medo de sentir, porque se ela sentir, a máquina vê, o professor fica sabendo e agora o que vai acontecer, né?
Mas defendendo essa questão da produtividade, saiu um paper, né, definindo, eu digo no sentido de alguém defendendo, saiu um paper pelo MIT, que está em rascunho ainda, falando que quem usa o ChatGPT aumenta, em média, eu tô falando de média, aumenta em média 37% a produtividade em tarefas variadas. Eles analisaram diferentes tipos de tarefas de trabalho, sei lá, seis tipos diferentes, com um total de 444 pessoas, se eu não me engano, e observaram que a produtividade aumentou em 37%. E o mais interessante é que a produtividade aumenta ainda mais para aquelas pessoas que tinham menos habilidade no início. Agora, após começarem a usar o ChatGPT, essas pessoas tiveram uma melhora maior do que aquelas que já tinham conhecimento prévio e agora estão usando o ChatGPT.
Aí você pode dizer "Então o Bill Gates estava certo", porque eu sempre menciono o Bill Gates aqui nos episódios, né? "Bill Gates estava certo, isso vai melhorar a educação, vai padronizar todo mundo." Mas a questão é: quem tem acesso ao ChatGPT? Porque se você tiver acesso ao Shared GPT, ou seja, se todo mundo tiver acesso à mesma versão do ChatGPT, e aqui entre nós, não sei se todos têm acesso à versão paga, mas com certeza entre todos nós que ouvimos, nem todo mundo tem acesso à versão paga, então essa ideia de nivelar as coisas já não funciona. A tecnologia nivelaria se todos tivessem acesso igual a ela.
Então, enquanto o paper traz essa questão que foi mais legal e surpreendente, eu não imaginava que pessoas com habilidades distintas poderiam ter esse resultado, medido pela habilidade, ainda há a questão de que não se trata apenas de inteligência artificial. É uma questão de acesso, tempo e dinheiro. São outras questões que a inteligência artificial não... Ou seja, essa inteligência artificial não ajuda, né?
Então é um paper super legal de ler, com várias questões simples e razoáveis de compreender. Aliás, é bem razoável de ler e traz coisas interessantes. Mas para aqueles que estão preocupados com a aplicação prática, enfrentamos obstáculos como tempo, dinheiro e acesso à ferramenta.
Paulo Silveira
Então, gostaria de expressar meu agradecimento à Bianca, nossa convidada especial deste episódio. Bianca, espero que você possa voltar, pois mal começamos a abordar os problemas diretamente. Achei ótimo que ficamos focados no tópico que trouxemos, foi muito interessante. Agora, vamos abordar os sub-itens de forma mais direta, como o exemplo que você deu sobre a contratação de casados e solteiros, o qual me deixou bastante surpreso. Também gostaria de agradecer a você, ouvinte, pela audiência. Nos encontramos no próximo episódio de Hipsters Fora de Controle. Abraços a todos. Tchau.
Este podcast foi produzido pela Alura, mergulhe em tecnologia. E Faculdade FIAP, Let's Rock the Future.
Edição, Rede Gigahertz de Podcasts.