Os novos termos do Mastodon “proíbem explicitamente a extração de dados do usuário para fins não autorizados, como arquivamento ou treinamento de modelos linguísticos extensivos.
Por Redação, com Europa Press – de Madri
A rede social descentralizada Mastodon atualizou suas políticas para proibir o uso de dados de usuários para treinar modelos de inteligência artificial, de acordo com a decisão recentemente tomada pela X.

Os novos termos do Mastodon “proíbem explicitamente a extração de dados do usuário para fins não autorizados, como arquivamento ou treinamento de modelos linguísticos extensivos (LLMs)”, uma mudança que entrará em vigor a partir de 1º de julho.
Também não é permitido “usar, lançar, desenvolver ou distribuir qualquer sistema automatizado, incluindo, sem limitação, qualquer spider, bot, trap utility, scraper, leitor ‘offline’ ou qualquer ferramenta de extração de dados ou de coleta de dados semelhantes para acessar a instância”.
Acordo com seus termos
Como exceção, ele permite “a saída e o armazenamento em cache do mecanismo de pesquisa padrão ou do navegador da Internet localmente ou para revisão e interação humana com o conteúdo da instância”, de acordo com seus termos.
A natureza descentralizada da rede social significa que a proibição só pode ser aplicada às instâncias do Mastodon, que são hospedadas no servidor Mastodon.social, portanto não se aplica a outros servidores, dos quais eles podem extrair dados.
Recentemente, a rede social X (antiga Twitter) atualizou o “Contrato de Desenvolvedor” para proibir que terceiros usem os dados e o conteúdo da plataforma para treinar grandes modelos de linguagem.