A tentação é grande, mas trata-se, neste momento, de economizar, ter produtividade ao custo da qualidade da informação, e banalizar a atividade jornalística a iniciativa de alguns veículos de comunicação (pequenos, diga-se de passagem), de utilizar o ChatGPT para produzir textos. Os resultados tem sido desastrosos, como atestam várias reportagens que inundam os meios digitais e a mídia impressa mostrando inconsistência nos resultados, o que os especialistas chamam de “alucinação das máquinas“.
Grandes veículos de imprensa tem sido mais cuidadosos com essa tecnologia, que tem sido utilizada, em fase de testes, para produzir apenas roteiros de pauta e auxiliar nas pesquisas, sempre com checagem final de um profissional (humano).
Para o jornalista e professor Carlos Eduardo Lins da Silva, a supervisão humana, nos casos acima, “é essencial e já existe consenso sobre isso nas principais e maiores redações e entidades e associações de jornalismo de todo o mundo”. Sua opinião tem o peso de sua experiência. Doutor em Comunicação, atual professor no Insper, autor de vários livros, foi diretor-adjunto na Folha de S. Paulo — onde protagonizou uma reforma editorial interna e introduziu o Manual de Redação – e também no Valor Econômico. Foi ombudsman da Folha e correspondente em Washington.
Auxiliar em tarefas simples
“A Inteligência Artificial no jornalismo, pode ajudar, nas tarefas que são banais e que podem ser feitas por uma máquina mais rapidamente”, opina Lins da Silva. “Assim, os jornalistas se dedicariam ao que é mais importante: a apuração e comprovação dos fatos. Mas, o perigo é substituir o jornalista pela para escrever textos”
Entre as rotinas que a IA pode ajudar, ele aponta a transcrições longas de conferências de imprensa, discursos, entre outras semelhantes, com o cuidado de que “a interpretação, análise de fatos, a máquina ainda não consegue fazer e quando tenta fazer surgem muitos erros”. Ou seja, pode ser um meio auxiliar nas redações.
Talvez no futuro surja um avanço nessas restrições. E hoje os cuidados estão sendo redobrados: “A maior parte das empresas jornalísticas estão tomando medidas para que esses erros não aconteçam”, quando utiliza a tecnologia no trabalho redação, destaca o professor. Imagens, por exemplo, não estão sendo utilizadas se passaram por alguma alteração ou criação de IA. “Isso é um perigo, o resultado pode ser enganador”.
Outro problema no uso do ChatGPT especificamente, é a questão dos direitos autorais, lembra Lins da Silva: “O fato da IA ser treinada com conteúdo feito por jornalistas, sem pagar nada por isso aos autores”. Existe um movimento na Europa e nos EUA, complementa, para exigir que empresas que utilizam ferramentas como o ChatGPT sejam mais transparentes e revelem como se onde são captadas as fontes dos resultados. Falta, portanto, sugere Lins da Silva, regulamentações estatais, as quais as big techs fogem como o diabo foge da cruz.
Erros viram anedotário
A equipe do UOL coleciona uma série de erros gritantes do ChatGPT: Demi Getschko, um dos pioneiros da internet no Brasil e diretor do NIC.br, órgão responsável por todos os domínios de internet terminados em .br, perguntou sobre a famosa frase de Shakespeare, “ser ou não ser, eis a questão”, a máquina acertou o autor mas errou a fonte; não está em Macbeth, como respondeu a máquina, e sim em Hamlet. A máquina erra também ao fazer contas básicas: Pergunta – “Se um carro leva quatro horas para ir de Lisboa ao Porto, quanto tempo demorariam 4 carros?”. A máquina somou tudo e disse, erroneamente, que cada carro levaria 16 horas. Na Apresentação do Bard, o concorrente do ChatGPT, o Google apresentou uma respostas errônea ao consultar a máquina: o Bard disse que telescópio James Webb foi o primeiro engenho a tirar de um planeta fora do sistema solar. Está errado, e ninguém percebeu, pois poucos tem conhecimento detalhado de astrofísica. A resposta correta é o telescópio do Observatório Europeu do Sul ,que fez tal foto a partir do Alabama em 2004. Esse tipo de erro que poucos percebem é um dos grandes perigos dessas máquinas de IA que podem deturpar fatos, nomes e dados, e seus leitores, se forem jornalistas, podem contribuir por propagar o erro. O curioso é que a maioria das perguntas acima são respondidas corretamente numa busca no velho e bom Google.