Telefone

0 800 307-444

Cancelar
tel Chamar msg Suporte online
AlphaSMS Glossário AI Red Teaming («Equipa Vermelha» de IA)

AI Red Teaming

AI red teaming (equipa vermelha de IA) é uma prática de testes direcionados a sistemas de inteligência artificial, através de «ataques» aos mesmos, com o objetivo de encontrar pontos fracos, riscos e comportamentos perigosos antes que o sistema entre em produção ou chegue aos utilizadores.

O AI red teaming ajuda a:

  • identificar vulnerabilidades de segurança;
  • encontrar respostas perigosas ou proibidas;
  • verificar se é possível forçar a IA a gerar conteúdo malicioso, obter dados confidenciais, manipular respostas;
  • reduzir riscos reputacionais e legais.
5