Home IA Humanos ainda superam moderação de conteúdo das LLMs
IAInternetRedes SociaisÚltimas

Humanos ainda superam moderação de conteúdo das LLMs

As falhas desses sistemas podem ter consequências devastadoras.

Ciompartilhar
Imagem Ilustrativa Moderação das LLMs
Ilustração: James Marshall. Fonte: Getty Images.
Ciompartilhar

Imagine um mundo em que algoritmos gigantes sejam totalmente encarregados de filtrar insultos ou fake news trabalhando sem trégua, e mesmo assim, tropeçam em palavras de “ironia” ou contextos ambíguos.

Pois é, já está acontecendo e o problema é mais grave do que você imagina.

Durante anos, as empresas de mídia social concentraram seus esforços de detecção e remoção automática de conteúdo, focando mais no conteúdo em inglês, do que em outros 7.000 idiomas do mundo.

Para quem achou que a IA seria capaz de moderar conteúdos com total eficácia ou poderia lidar completamente com conteúdos imbuídos em contextos culturais sutis, se enganou.

Estudo que mostra a “vantagem humana” sobre moderação das LLMs

Pesquisas recentes como o sistema LLM-C3MOD mostram que, ao moderar discursos, em um sistema colaborativo entre humanos e LLMs, há ganho real.

Como resultado, o sistema colaborativo alcançou 78% de acurácia, superando o desempenho isolado de modelos como o GPT-4, que atingiu, isoladamente, 71% de acurácia.

Limitações de moderação das LLMs em entender “nuances”

A grande limitação das LLMs (“Grande Modelo de Linguagem”, em tradução livre) são suas frequentes falhas ao interpretar sarcasmo e as ditas “nuances culturais”.

Em especial, modelos multilíngues enfrentam dificuldades com idiomas menos representados, podendo classificar incorretamente postagens legítimas como discurso de ódio.

Isso porque LLMs ainda perdem nuances que escapam ao entendimento literal, especialmente em línguas com “poucos recursos”, ou seja, idiomas com poucos dados de texto digitalizados disponíveis para treinar sistemas automatizados.

Leia mais:

IA reduz capacidade de médicos detectarem câncer

Adultização: as Big Techs e o grande alerta

Microsoft adiciona GPT-5 em seus principais serviços e expande acesso a usuários e empresas

A voz dos consumidores: empatia humana faz diferença

Segundo pesquisa da TELUS International, 92% dos usuários consideram importante que humanos revisem conteúdo, e não somente IA.

Além disso, 73% acreditam que a IA não compreende tom e contexto tão bem quanto uma pessoa.

A diretora administrativa de soluções de dados de IA da TELUS International, Siobhan Hanna, falou sobre o tema em um comunicado à imprensa:

“A IA continua a se tornar cada vez mais sofisticada na detecção de conteúdo digital que vai contra os padrões da marca e as diretrizes da comunidade e provou ser uma ótima primeira linha de defesa contra conteúdo prejudicial — mas, com novos tipos de conteúdo surgindo constantemente e o uso crescente de algoritmos, é praticamente impossível para a IA acompanhar o ritmo”

De fato, conforme a pesquisa indicou e foi apontado por 53% dos candidatos, está cada vez mais difícil para marcas e plataformas sociais/de jogos monitorar o conteúdo de seus sites no último ano.

Paralelamente, há mais pessoas em cada plataforma, além de estar se tornando mais comum simplesmente denunciar e “expressar queixas online”.

Isso sem considerar o fato do quanto as gerações mais jovens são mais inclinadas ao digital, o que consequentemente aumentará o público digital, e o problema, cada vez mais.

Qual seria a solução para a moderação das LLMs?

Inegavelmente, as ferramentas de moderação de conteúdo de IA continuarão a melhorar, mas moderadores humanos sempre serão um recurso necessário (e valioso) para garantir espaços online seguros para todos.

Por isso, a solução mais eficaz se baseia em uma parceria conjunta entre IA e moderadores humanos: a máquina filtra com rapidez, enquanto o humano decide com consciência.

Nas plataformas reais, essa estratégia é usada: IA faz o trabalho de triagem massiva, mas os humanos guardam o toque final.

Empresas como Meta, YouTube e Facebook utilizam IA para triagem inicial, mas mantêm revisão humana nos casos delicados, reconhecendo que o toque humano é essencial.

Não devemos ignorar também a importância de apoio das marcas aos moderadores de conteúdo, com um “programa de bem-estar” para capacitá-los a realizar seu melhor trabalho, ao mesmo tempo em que protegem sua saúde mental e física.

Embora LLMs tragam eficiência e consistência, são os humanos que permanecem indispensáveis para julgar justiça e contextos.

O futuro ideal da moderação não é IA ou humano — é IA com humano.

“A IA pode ser a aprendiz mais rápida na sala, mas é preciso um toque humano para entender o coração de uma comunidade.” – Manish Jain , Diretor de Marketing e Estratégia, Fusion CX

Ciompartilhar
Escrito por
Samio Pereira

Conteúdo relacionado
windows 10
TecnologiaÚltimas

Suporte ao Windows 10 encerra em outubro; saiba o que pode acontecer

A Microsoft anunciou o encerramento do suporte oficial para o Windows 10...

Spotify ganha chat de mensagens diretas.
AplicativosÚltimas

Spotify ganha chat de mensagens diretas; veja como funciona

A plataforma de streaming de áudio Spotify anunciou nesta terça-feira (26) a...

HBO Max
FilmesInternetSériesStreamingÚltimas

HBO Max aumenta preço de planos no Brasil; veja novos valores

A HBO Max anunciou, nesta terça-feira (26) um reajuste nos valores de...

se eu fosse vocè 2
FilmesÚltimas

Cinema nacional: Se Eu Fosse Você 2 – Mais do Mesmo, Mas com o Charme Intacto

Três anos depois de trocarem de corpos e (quase) aprenderem a se...