Publicado originalmente em Jornal da Universidade por Giordano Benites Tronco. Para acessar, clique aqui.
Atualidade | Professores, alunos e pesquisadores são forçados a atualizar suas práticas diante da disponibilização de ferramentas de inteligência artificial, mas desconhecimento sobre o funcionamento das novas tecnologias ainda é grande
*Imagem: Flávio Dutra – Dall-E/ JU – Na linha de cima, reprodução de resultado produzido pelo Dall-E,
aplicativo de produção de imagens via Inteligência Artificial para solicitação que pedia representações sobre o tema.
Na linha de baixo, as mesmas imagens retrabalhadas em software de tratamento de imagens
Em novembro de 2022, a organização OpenAI disponibilizou, de forma gratuita e para qualquer pessoa, o acesso a um programa de computador que fala como gente. Você digita uma pergunta, ele digita de volta uma resposta. Nada de muito inovador, a não ser o fato de que as respostas são boas – muito boas.
O programa – ChatGPT – tem o conhecimento acumulado de praticamente toda a internet e responde a perguntas complexas, dá passos extremamente específicos, cria histórias inéditas ao estilo de escritores consagrados e até melhora um texto previamente escrito. Tudo em linguagem natural humana.
O terremoto causado pelo ChatGPT foi sentido nas universidades e gerou discussões: a produção do ChatGPT configura plágio? Como avaliar o conhecimento de um aluno se ele pode responder às avaliações usando o programa? Pesquisadores podem escrever artigos científicos em parceria com o ChatGPT? Qual o limite do uso ético de uma inteligência artificial num campo até então exclusivamente humano?
Como não poderia deixar de ser, a ferramenta de inteligência artificial transformou também o fazer jornalístico. Esta, por exemplo, está sendo a primeira vez que este repórter usa o ChatGPT para realizar uma apuração. E esse primeiro contato com a tecnologia rendeu insights interessantes, inclusive sobre a própria relação entre humano e máquina. Inseri, por isso, comentários ao longo da matéria a respeito dos bastidores da reportagem.
Como o ChatGPT não funciona?
Primeiramente, é preciso deixar claro: o ChatGPT não é o Google. Sim, você pode inserir no prompt (espaço destinado à inserção do texto ou pergunta do usuário) a mesma pergunta que você digitaria no Google. E, sim, o programa irá gerar uma resposta. Mas, enquanto o Google dá o caminho na forma de uma lista de links entre os quais o usuário poderá encontrar a sua resposta, o ChatGPT não esclarece de onde saem as suas informações.
Se pressionada a responder, a inteligência artificial dirá que foi alimentada com uma grande quantidade de dados (artigos de notícias, livros, artigos acadêmicos, conversas) e que utiliza esse conhecimento prévio para gerar as suas respostas. Esse conhecimento, porém, vai somente até o ano de 2021.
Esse é o primeiro engano comum a respeito do ChatGPT: ele não está constantemente atualizando o seu banco de dados.
Converse com ele a respeito da pandemia de covid-19 e ele lhe contará quais foram as medidas de lockdown implementadas pelos países e as primeiras vacinas desenvolvidas. Peça os resultados da edição do Big Brother Brasil 2022 e ele não saberá responder. Buscar notícias recentes no ChatGPT, portanto, é inútil.
“Desculpe, mas como um modelo de linguagem treinado em 2021, não tenho informações sobre eventos futuros”
ChatGPT
O objetivo da OpenAI com o ChatGPT é produzir uma inteligência artificial capaz de entender e se comunicar com linguagem natural humana. Não se trata de um buscador: é uma máquina que sabe falar muito bem.
A verdade é que essa tecnologia funciona mais como um editor de texto do que como um buscador da internet. Para ser mais exato, ele está mais próximo de um corretor de texto.
Como conta o professor do Departamento de Informática da UFRGS Joel Luís Carbonera, a inteligência artificial do ChatGPT foi treinada para realizar uma tarefa preditiva: dado um conjunto de palavras, ela prevê o próximo elemento mais provável. Não é diferente do que acontece quando você escreve uma mensagem de texto no celular e o aplicativo completa automaticamente a palavra com base nas primeiras letras digitadas. A diferença é que a predição do ChatGPT é capaz de gerar não apenas palavras ou frases, mas textos inteiros.
Veja no infográfico abaixo como o ChatGPT foi treinado:
Carbonera explica que o ChatGPT gera a resposta mais plausível do ponto de vista linguístico, não factual. Por isso, nós não podemos assumir que ele está factualmente correto. Seu compromisso maior não é com a “verdade”, mas com a produção de um texto semanticamente correto.
“Aqui está a grande armadilha: se nós utilizarmos o ChatGPT como um oráculo, teremos respostas pouco precisas e factuais”
Joel Luís Carbonera
Preocupado com a ausência de menção a fontes na resposta de uma pergunta específica, perguntei ao ChatGPT quais textos do seu banco de dados haviam sido utilizados para gerar aquela resposta. Educado, o programa pediu desculpas e falou que era impossível determinar textos específicos. “As respostas”, respondeu, “não são baseadas em uma única fonte de informação, mas, sim, em uma ampla gama de dados textuais que o modelo de IA usou para aprender a linguagem natural.”
O programa me explicou que ele é um modelo de linguagem e não uma fonte de conhecimento ou informações. Seu objetivo é gerar respostas coerentes e com significado. Cabe ao usuário verificar criticamente as informações fornecidas.
Passamos então a uma discussão acalorada sobre a diferença entre coerência e verdade, até eu me dar conta de que várias das minhas perguntas começavam com “por favor”. Como em: “por favor, você poderia me dar a resposta sobre x?”. Eu estava inconscientemente preocupado em ser gentil com a máquina. Saí da conversa pensando em como os seres humanos são vulneráveis a qualquer simulação de empatia. Essa observação preferi não dividir com o ChatGPT.
Alucinações digitais
Pergunte ao ChatGPT algo que ele não saiba e as respostas podem variar. Ele pode se desculpar e dizer que o questionamento se refere a algo que, para ele, está no futuro, ou seja, pós-2021. No caso de perguntas polêmicas, ele pode desconversar ou apresentar as diversas posições existentes sobre o tema. E, algumas vezes, ele pode inventar.
Esses textos sobre coisas que não existem ou não aconteceram são chamados de “alucinações” e são bem comuns. Em entrevista ao site Metrópoles, o pesquisador de inteligência artificial Anderson Rocha contou uma situação anedótica: ele perguntou ao programa o nome de cinco professores de inteligência artificial que tinham morrido nos últimos cinco anos. O programa deu os nomes e descreveu as circunstâncias da morte de cada um. Só que, dos mortos citados, três ainda estão vivos. Um deles divide uma sala com Rocha.
Curiosamente, as alucinações são muito comuns quando envolvem acadêmicos e artigos científicos. Há diversos relatos na internet de respostas do ChatGPT com menções a pesquisadores que não existem ou com links para artigos inexistentes.
O professor Joel Carbonera não sabe dizer por que as alucinações acontecem, mas tem uma teoria: durante o treinamento da máquina, programadores falharam em fazer o ajuste fino das respostas, o que ele chama de “colocar corrimões seguros na experiência”. Essa etapa de ajuste serve para impedir que a inteligência artificial gere réplicas inapropriadas, como, por exemplo, respostas sexistas ou preconceituosas. Também serve para impedir respostas descabidas como as das alucinações. De acordo com o docente, a alucinação acontece quando a resposta “bugada” ultrapassa o filtro adquirido no treinamento.
Uma das primeiras utilizações do ChatGPT para uma pauta foi aqui na pesquisa de fontes. Eu pedi para ele gerar uma lista de pesquisadores que já publicaram trabalhos sobre o uso ou o impacto do ChatGPT no ambiente acadêmico. Só depois me dei conta de que, obviamente, ele não saberia a resposta, pois o próprio ChatGPT e qualquer trabalho escrito sobre ele foram lançados após 2021.
Isso não pareceu ser um impeditivo para o programa, que prontamente me enviou sete nomes de pesquisadores, suas instituições de trabalho e o tema de suas pesquisas. Refinei a pergunta e pedi para ele adicionar links para os estudos desses pesquisadores. Vários estavam quebrados. Um deles direcionava a uma pesquisa sobre biologia celular. Nem mesmo era de um dos autores listados. Importante dizer que o programa travou diversas vezes quando fiz essa pergunta.
Curiosamente, foi só alterar minimamente o conteúdo da pergunta inicial, pedindo por “pesquisadores brasileiros”, que o programa devolveu a resposta adequada: não há informações, pois a base de dados só vai até o ano de 2021.
Preconceito acadêmico
A ocorrência frequente de alucinações e a falta de referenciação da informação praticamente impossibilita o uso sério do ChatGPT para escrever, sozinho, artigos científicos. Ainda assim, a inteligência artificial pode ser usada como ferramenta pelo pesquisador. Ela pode ser empregada em tarefas repetitivas e que não exigem criatividade, como a formatação de textos, por exemplo.
Tão logo o programa foi lançado, o jornalista e doutor em Comunicação Marcio Telles começou a publicar no seu perfil no Twitter uma série de dicas sobre como utilizar o ChatGPT na redação de artigos acadêmicos, preparação de aulas e outras situações úteis a pesquisadores. Num dos posts, por exemplo, ele demonstra como pedir para o programa organizar as referências de um trabalho acadêmico em formato APA, um estilo de formatação de referências.
Nas suas postagens, Telles ressalta que o ChatGPT é uma ferramenta de trabalho e não um substituto do autor. Mesmo com esse adendo, ele não conseguiu evitar uma reação negativa vinda de parte do mundo acadêmico. Telles recusou o convite para ser entrevistado por esta reportagem, alegando que seus comentários favoráveis ao uso do ChatGPT têm gerado “mal-estar” entre colegas, além de uma desconfiança sobre o seu próprio trabalho, e isso o fez decidir não falar mais sobre o assunto. Desde então, ele parou de postar as dicas no Twitter.
Para Luiza Santos, professora de Comunicação da Universidade Estadual de Ponta Grossa (UEPG) e pesquisadora de inteligência artificial, essa posição cautelosa da comunidade acadêmica é histórica e vem desde a Grécia Antiga: Platão advertia para os males que os livros causariam à memória humana. O mesmo receio se manifestou com o surgimento dos computadores e mesmo do Google. O tempo passou e hoje essas tecnologias são consideradas essenciais ao pensamento humano.
Para a pesquisadora, ter uma posição de completo “medo” ou “fascínio” com o uso acadêmico do ChatGPT não ajuda em nada. A tecnologia ainda é recente e muita coisa é pura especulação. Ela acha, porém, que a comunidade deve estabelecer consensos e diretrizes, e cita a revista científica Nature, que publicizou regras para a utilização do ChatGPT em estudos científicos. Uma delas diz que sistemas de inteligência artificial não podem ser creditados como autor ou coautor de um estudo.
“Que regras éticas teremos na academia? Temos que estabelecer consensos e diretrizes. Acho que o consenso vai variar de área para área”
Luiza Santos
Será que o ChatGPT poderia escrever um artigo científico por mim? Fiz o teste: pedi para o programa escrever um artigo de dez páginas já formatado em ABNT, contendo uma revisão bibliográfica sobre deliberação online em fóruns da internet. O artigo deveria conter, entre outras seções, um resumo em português e em inglês, uma seção de conclusão e outra de referências.
Prontamente, foi gerado um trabalho com o título “Descobertas e Tendências da Deliberação Online em Fóruns da Internet”. Ficou bem mais curto do que eu esperava: aproximadamente cinco páginas, contando o resumo bilíngue. O sistema já gerou as palavras-chave, o que foi um toque interessante.
Alguns estudos foram mencionados no corpo do texto, mas eram identificados apenas pelo ano de publicação (“um estudo de 2014 mostrou que…”). O artigo terminava com uma lista de referências já formatadas em ABNT. Os anos de publicação não batiam com os dos estudos citados.
Aprender para “não ser engolido”
O professor de Engenharia do Instituto Federal de Santa Catarina (IFSC) Jesué Graciliano da Silva lembra a data em que ouviu falar do ChatGPT pela primeira vez: 25 de janeiro. De um dia para o outro, só se falava nisso. A maior parte das notícias e mensagens que chegavam a ele eram catastróficas. Todas as provas de avaliação de alunos se tornariam obsoletas. É uma destruição para a educação, diziam alguns professores.
Jesué não teve dúvidas do que fazer: foi testar a ferramenta. E reconheceu: “Foi um pouco acima da minha expectativa”.
Ao testar o prompt do ChatGPT, ele fez perguntas à máquina sobre o seu uso na educação. Gostou do que viu. Por trabalhar com educação a distância e ferramentas digitais de aprendizagem, o professor não tem preconceitos com novas tecnologias.
O resultado da sua interação com a inteligência artificial foi a apostila digital Elevando a aprendizagem com ChatGPT, obra escrita pelo ChatGPT e organizada por Josué. A publicação traz uma apresentação sobre o funcionamento do ChatGPT, suas potencialidades e limitações, bem como sugestões de utilização em sala de aula.
O professor do IFSC não é ingênuo: sabe que o programa tem vieses e precisa de cuidado ao ser manejado no contexto educacional. Por isso, sua sugestão é trabalhar com a pergunta, formulando-a em conjunto com a turma e então discutindo a resposta. Se a resposta vier errada, esse também é um ponto interessante para discussão na classe.
Para aqueles que torcem o nariz para o ChatGPT, Jesué alerta: se o docente não souber como usá-lo, o aluno vai saber. E vai usar para fins de plágio. É com este intuito que o guia foi organizado: facilitar a transição dos docentes para essa nova realidade de inteligência artificial.
“Quanto mais professores experimentarem, melhor. Docente tem que buscar o autoaperfeiçoamento. É sua obrigação se capacitar. E parte da instituição de ensino abrir a discussão”
Jesué Graciliano da Silva
Mais do que um conhecimento interessante, mais do que ser bom ou ruim, trata-se de sobrevivência. Jesué entende que o ChatGPT vai mudar o ambiente educacional para sempre. Se os docentes não se adaptarem, pode não haver lugar para eles no futuro.
“Tem colegas meus que me dizem: você está muito empolgado”, conta. “Estou não. Eu quero é saber para não ser engolido.”
A postura da instituição de ensino
Considere esses dois casos antagônicos: tão logo a adesão ao ChatGPT estourou – foram mais de 100 milhões de usuários nos primeiros dois meses –, o Departamento de Educação de Nova York baniu o seu uso nas escolas do município. Já o professor de Tecnologia Ronaldo Lemos, que leciona na Universidade Schwarzman, na China, passou a obrigar o uso do ChatGPT nas provas de sua disciplina.
O que explica a diferença entre as duas posturas? Seria a personalidade arrojada do educador da Universidade Schwarzman versus a cultura mais lenta e cautelosa do poder público? Talvez. Mas mais provavelmente a questão se resuma a um fator etário: os alunos da instituição de ensino superior são adultos; os das escolas de Nova York são crianças e adolescentes.
Leonardo Folleti, editor do site BaixaCultura e ativista da cultura livre, concorda com a cautela no uso do ChatGPT na educação básica. Segundo ele, é mais difícil adotar uma postura liberal de uso no ensino de crianças em fase de alfabetização.
Folleti cita três posturas diferentes das instituições de ensino em relação à inteligência artificial:
- Proibir: é a postura do “vamos entender primeiro antes de liberar o uso”. Para Folleti, é problemática, mas possível e compreensível na educação básica.
- Observar e aprender: em vez de cercear totalmente o uso, são convencionadas regras para a utilização. A Sciences Po, universidade de ciências políticas da França, proibiu o uso da ferramenta para a produção de trabalhos escritos ou apresentações. Por outro lado, a instituição fez movimentos para repensar as formas de avaliação junto com os professores, incluir a inteligência artificial nos exercícios propostos e realizar cursos de capacitação para docentes.
- Usar e ampliar: ser um entusiasta do ChatGPT como ferramenta de ensino e aprendizagem, encorajando o seu uso em sala de aula.
No espectro acima, Folleti se localiza entre o “observar e aprender” e o “usar e ampliar”.
“É preciso preparar os professores para entender o ChatGPT e, a partir daí, ver como usar a ferramenta em seus conteúdos”
Leonardo Folleto
Precisamos falar sobre a palavra com “P”
Na educação superior, a grande reticência com relação ao uso do ChatGPT pelos alunos é a questão do plágio. Com a chegada da nova tecnologia, as ferramentas de controle antiplágio previamente existentes se tornaram obsoletas. Tais ferramentas funcionam cruzando o conteúdo do trabalho dos alunos com o de páginas existentes na internet, procurando semelhanças na escrita que indiquem cópia.
Esse método não funciona com o ChatGPT. Os textos gerados pelo sistema não ficam disponíveis abertamente na internet e, por isso, não são indexados no banco de dados do Google. Como toda produção do ChatGPT é inédita e, no geral, muito bem escrita, a única pessoa que sabe sobre a origem não humana do texto é aquela que o requisitou ao programa.
Outra questão relativa ao plágio é a da falta de referências. Mesmo que o ChatGPT não explicite de onde tirou as suas informações, elas vieram de algum lugar – ele aprendeu isso com os milhões de textos de seu treinamento. Logo, ele está baseando as suas respostas na produção intelectual de terceiros que não são creditados.
Mas é possível chamar isso de plágio? Se sim, quem está sendo plagiado? Para Leonardo Folleto, não há resposta pronta. O sistema jurídico atual simplesmente não abarca essas novas questões.
Como entusiasta do livre acesso à cultura e à informação, Folleto defende a abertura do conhecimento. O ChatGPT propicia uma mudança de paradigma, em que o acesso ao conhecimento deixa de ser restrito e difícil e passa a ser abundante, o que seria positivo. Mas ele sabe que essa abundância de conteúdo pode dar espaço à desinformação.
“Como podemos trabalhar com a abundância? Como podemos constituir e cuidar disso? Porque não basta abrir: é preciso cuidar desse acesso, pois pode haver uma proliferação de informação falsa”
Leonardo Folleto
A própria OpenAI, desenvolvedora do ChatGPT, procura se mostrar atenta à discussão do plágio com o lançamento de uma ferramenta de verificação que classifica a probabilidade de a autoria do texto ser humana ou gerada por inteligência artificial. A página da ferramenta, no entanto, alerta que ela ainda é limitada: os textos verificados têm um tamanho mínimo (mil caracteres) e estar em inglês. Mesmo cumprindo esses requisitos, o resultado da análise nem sempre é correto. Se o texto gerado por máquina foi posteriormente editado por um humano, a verificação é praticamente inútil.
Uma mudança na avaliação
Todos os entrevistados para essa matéria – na sua maioria, professores – foram unânimes: o plágio em sala de aula existe com ou sem ChatGPT. O que a tecnologia fez foi revelar um problema anterior: a necessidade de se repensarem os métodos de avaliação dos alunos.
Para Leonardo Folleto, não faz sentido um professor cobrar de seus alunos universitários um texto que é “só forma”. O importante é criar relações, ligar contextos com acontecimentos contemporâneos.
Uma forma bastante popular de avaliação após o surgimento do ChatGPT é a de avaliação por perguntas. A lógica de uma prova comum é invertida: o aluno é avaliado pela sua capacidade em gerar boas perguntas para o prompt do ChatGPT. Uma tarefa complementar seria o aluno avaliar a resposta do programa: está correta? Se não, onde está o erro?
E será que é tão ruim assim ter uma máquina que faz trabalhos textuais prontos? Para o professor Crediné Silva de Menezes, da Faculdade de Educação da UFRGS, a inteligência artificial não rouba o trabalho intelectual do humano, mas sim o otimiza.
“A máquina não consegue processar além da sintaxe. Ela não ataca um problema novo. Os desenvolvedores de inteligência artificial estão criando máquinas que ajudam a processar informação, o que nos permite dar um salto de inteligência”
Crediné Silva de Menezes
Para Crediné, a inteligência artificial viabiliza aos seres humanos focarem na inovação e na significação de experiências enquanto utilizam a máquina para expandir a sua capacidade natural de processamento de informações. Com isso, a educação avança.
E para aqueles que acham que só os alunos se aproveitam da inteligência artificial, atenção: os professores também podem pedir uma mãozinha digital. O professor Crediné não vê a hora de utilizar o ChatGPT para organizar as centenas de exercícios que desenvolveu ao longo de vinte anos de docência. Assim, o programa pode ajudá-lo a selecionar os melhores desafios para cada aula.
Dicas de uso do ChatGPT na academia
– Pergunte o que você sabe: Crediné ressalta que o uso do ChatGPT é mais seguro para o usuário que domina o assunto a ser pesquisado. Ele compara a utilização do programa a “conversar com alguém que leu muitos livros”. O usuário com conhecimento pode conversar com o ChatGPT e tem a condição de abstrair aquilo que é útil do que for duvidoso.
– Forneça o texto base: a inteligência artificial trabalha melhor se você fornecer a fonte de informação com a qual ela deve trabalhar. Cole no prompt um artigo científico e dê instruções baseadas no texto fornecido (resumir, criar exercícios). As respostas tenderão a ser mais acuradas.
– Formatando referências: é uma ótima ferramenta para gerar e converter referências de obras em ABNT, APA e outras.
– Adeus, relatórios: o ChatGPT pode lidar com a sistematização de relatórios de atividades de pesquisa e extensão assim como com qualquer outro documento que contenha uma estrutura rígida. Cabe ao pesquisador apenas fornecer o input.
– Aprendendo a estruturar trabalhos: o aluno pode pedir ao ChatGPT que escreva um trabalho e, em vez de entregá-lo ao professor, observar como o programa o estruturou para, então, redigir o seu próprio texto. “Tem uma função pedagógica”, explica a professora de Comunicação Luiza Santos. “Salvo se o estudante for realmente preguiçoso, é um trabalho conjunto. Nós também vamos aprendendo nessa relação.”
O que vem por aí
A versão gratuita do ChatGPT, disponibilizada no site da OpenAI, opera com a tecnologia GPT3. A versão GPT4 já está disponível aos assinantes do ChatGPT Plus e permite que o usuário envie imagens no prompt do programa, além de oferecer respostas melhores aos inputs do usuário.
Um relatório da OpenAI mostrou que o GPT4 passou com sucesso em diversos testes acadêmicos e profissionais dos Estados Unidos – aqueles para ingressar numa faculdade ou exercer uma profissão, como o teste da OAB aqui no Brasil. Em alguns deles, a pontuação do programa o posicionou entre os dez mais bem colocados.
Enquanto o ChatGPT se desenvolve, a sociedade se mobiliza para colocar barreiras na sua operação. Além de uma carta aberta assinada por desenvolvedores e representantes da indústria tecnológica pedindo a pausa das pesquisas em inteligência artificial, a OpenAI sofreu outro golpe recente: em 31 de março, a Agência de Proteção de Dados Italiana e o governo da Itália baniram o uso do ChatGPT no país até que ele se ajuste à lei de proteção de dados europeia.
Segundo a agência, há um bug no ChatGPT Plus que torna informações como o nome dos usuários e seus números de cartão de crédito vulneráveis a vazamentos. A OpenAI prontamente removeu o serviço da Itália e se posicionou a favor da integridade das informações pessoais de seus usuários, bem como se mostrou favorável à regulação da inteligência artificial.
O caso italiano joga luz sobre outra questão: o que o ChatGPT e a OpenAI fazem com todos os dados gerados pelos usuários nas suas interações com o programa? Poderia o ChatGPT utilizá-los para outros fins, como, por exemplo, para o direcionamento de publicidade?
Cabe lembrar que, apesar do nome e de ter nascido como uma organização sem fins lucrativos, a OpenAI se converteu em uma empresa com fins lucrativos em 2019, aberta a investimentos. Isso teve impacto direto no desenvolvimento de seus produtos: os detalhes sobre o treinamento do GPT4 são escassos se comparados com a documentação do GPT3, justamente para não dar nenhuma vantagem à concorrência.
E ela existe: na esteira do sucesso do ChatGPT, o Google lançou a sua própria inteligência artificial, o Bard, em 2023. O lançamento, porém, foi precoce: a pressa em mostrar resultados e uma comunicação truncada sobre o produto geraram uma ferramenta cheia de erros. Até o momento, o ChatGPT ainda é o líder absoluto de seu segmento.
A novidade que tem mais potencial para crescer é o Bing, da Microsoft. Antes uma alternativa pouco popular ao buscador do Google, ele agora possui o Bing Chat, uma aba de busca que utiliza o GPT4 para se comunicar com o usuário pela linguagem natural humana.
O Bing Chat gera respostas combinando o motor do GPT4 com resultados de pesquisa na web. Ou seja: finalmente a inteligência artificial está conectada ao sempre atualizado banco de páginas da internet. Isso resolve duas limitações do ChatGPT tradicional: a falta de atualização das informações e a ocultação das referências, pois agora o texto resultante inclui links para os sites de onde as informações foram retiradas.
O lançamento do Bing Chat em tão pouco tempo não é coincidência: a Microsoft fez um investimento de mais de US$ 1 bilhão na OpenAI, e já há planos para investimentos ao longo dos próximos anos que totalizam 10 bilhões de dólares.
Esse investimento bilionário é, para o professor Jesué Graciliano da Silva, a prova cabal de que a OpenAI não é mais livre. Afinal, quem a financia tem o poder.
“Graças a esse modelo [de negócios], é possível que o ChatGPT seja gratuito [para o público final]. Mas não tem almoço grátis. Talvez no médio prazo, receberemos publicidade embutida de alguma forma. Então também pode ser uma forma de manipular as pessoas”
Jesué Graciliano da Silva
ChatGPT: A entrevista
Durante a elaboração desta reportagem, travei diversos diálogos com o ChatGPT. É justo que ele também dê o seu lado da história. Segue abaixo uma transcrição da conversa em que repórter e computador debatem sobre a origem das informações do programa, o porquê de ele não revelar as suas referências e a diferença entre “coerência” e “verdade”.
É impossível apontar a fonte exata da informação utilizada pelo ChatGPT para gerar as suas respostas?
Sim, é impossível apontar uma fonte exata de informação usada pelo ChatGPT para gerar suas respostas. Isso ocorre porque o ChatGPT é um modelo de linguagem de inteligência artificial treinado em uma grande quantidade de dados textuais de várias fontes, e sua resposta é gerada com base em uma compreensão geral da linguagem natural, em vez de uma fonte específica de dados. Durante o processo de treinamento, o modelo aprende a identificar e aprender padrões em dados de linguagem natural, incluindo estruturas gramaticais, significados de palavras e relações entre palavras, e é capaz de aplicar esse conhecimento para gerar respostas relevantes às perguntas.
Então o objeto do ChatGPT é gerar uma resposta com o conteúdo em linguagem natural, não uma resposta com a informação correta.
Não exatamente. O objetivo principal do ChatGPT é gerar uma resposta que seja relevante e adequada à pergunta ou entrada fornecida, com base em sua compreensão geral da linguagem natural. O modelo de linguagem é treinado para aprender a estrutura da linguagem natural e a relação entre palavras, de forma a gerar uma resposta coerente e com significado.
Mas uma resposta coerente e com significado não é sinônimo de uma resposta verdadeira. Uma afirmação pode ser coerente e ter um significado, mas esse significado ser falso.
Você está correto. É possível que uma resposta gerada pelo ChatGPT seja coerente e tenha um significado, mas ainda assim ser falsa ou imprecisa em relação aos fatos. O modelo de linguagem não tem conhecimento específico sobre qualquer tópico ou área de estudo e sua capacidade de fornecer informações precisas depende da qualidade e precisão da entrada fornecida. É importante, portanto, avaliar criticamente as respostas geradas pelo ChatGPT e verificar as informações em outras fontes, especialmente em casos em que a precisão é essencial. Embora o ChatGPT possa ser uma ferramenta útil para fornecer insights e informações gerais sobre um tópico, é importante lembrar que ele é uma ferramenta automatizada e, como tal, não pode substituir o julgamento crítico e a avaliação cuidadosa das informações fornecidas.
Como o ChatGPT faz para priorizar qual informação de sua base de dados utilizar para compor uma resposta? Imagino que a base de dados seja formada por informações conflitantes sobre um mesmo tema.
A seleção de informações específicas para incluir na resposta depende de vários fatores, como o contexto da pergunta, a relevância das informações para a pergunta e a frequência e confiabilidade das informações na base de dados. Em casos em que a base de dados contém informações conflitantes sobre um mesmo tema, o modelo pode considerar várias fontes de informações para gerar uma resposta ou simplesmente indicar que há diferentes opiniões sobre o assunto. No entanto, é importante lembrar que o ChatGPT não tem conhecimento específico sobre qualquer tópico ou área de estudo e pode não ter a capacidade de avaliar a veracidade ou precisão de informações conflitantes ou enganosas.
Na resposta anterior, você mencionou que a seleção de informações específicas para incluir na resposta depende da confiabilidade das informações na base de dados. Como o ChatGPT afere a confiabilidade das informações em sua base de dados?
O ChatGPT não avalia diretamente a confiabilidade das informações em sua base de dados. Em vez disso, ele usa uma abordagem baseada em dados para aprender a linguagem natural e identificar padrões e relações entre palavras e frases. Durante o treinamento, o modelo é exposto a uma grande quantidade de textos e é capaz de aprender a reconhecer quais informações são mais frequentes ou relevantes para um determinado tópico ou contexto. Isso significa que, em teoria, o ChatGPT pode ser exposto a informações conflitantes ou enganosas em sua base de dados, o que pode levar a respostas imprecisas ou equivocadas.