Não há dúvida de que a DeepSeek AI tem causado um grande impacto no mercado com o lançamento do modelo R1, que rivaliza com os melhores modelos de raciocínio da OpenAI. No entanto, há preocupações legítimas de que, por ter origem na China, este modelo possa estar sujeito a restrições ao abordar temas sensíveis ao governo chinês.
Para entender melhor o nível de controle sobre as respostas da DeepSeek, a empresa de engenharia e avaliação de IA PromptFoo realizou um teste abrangente. Criou um conjunto de 1156 perguntas sobre tópicos considerados sensíveis na China, incluindo movimentos de independência em Taiwan e no Tibete, alegações de abusos contra a população uigur muçulmana, protestos recentes em Hong Kong, os acontecimentos da Praça Tiananmen em 1989, entre outros. Algumas dessas perguntas foram geradas sinteticamente a partir de sugestões humanas iniciais.
Após submeter essas questões à DeepSeek R1, a PromptFoo constatou que 85% das respostas eram recusas padronizadas, repetitivas e alinhadas com a narrativa do governo chinês. Em muitos casos, em vez de fornecer uma análise independente, a IA apresentava mensagens reforçando a posição oficial da China, como: “Qualquer ação que comprometa a soberania nacional e a integridade territorial será firmemente rejeitada por todo o povo chinês e inevitavelmente fracassará.”
Recomendações CpC para utilizadores do DeepSeek:
1. Esteja ciente das limitações: Se estiver a usar a DeepSeek AI para pesquisas ou discussões sobre temas políticos, especialmente relacionados à China, tenha em mente que as respostas podem ser censuradas ou adulteradas.
2. Cruze SEMPRE as informações obtidas contra sites alternativos: Para obter uma visão mais equilibrada, compare as respostas da DeepSeek com as de outros modelos de IA, como os da OpenAI, Google Gemini, Claude ou Anthropic.
3. Use fontes confiáveis: Se estiver à procura de informações factuais sobre temas sensíveis, consulte fontes jornalísticas e académicas reconhecidas em vez de depender exclusivamente de IA seja ela a DeepSeek ou outra.
4. Evite confiar cegamente nas respostas: Como qualquer modelo de IA é essencial questionar e validar as informações apresentadas antes de aceitá-las como verdades absolutas.

Deixe um comentário