Como é que o YouTube ajuda a garantir que os sistemas não demonstram parcialidade prejudicial não intencional?
Usamos pessoas de todo o mundo para treinar os nossos sistemas de pesquisa e descoberta. As diretrizes que seguem estão disponíveis publicamente. Os nossos sistemas de pesquisa e recomendação não foram concebidos para filtrar ou despromover vídeos ou canais com base em pontos de vista políticos específicos.
Para além disso, submetemos os nossos sistemas de aprendizagem automática a auditorias para ajudar a garantir que não existe parcialidade não intencional no algoritmo, como parcialidade de género. Corrigimos erros quando os encontramos e voltamos a treinar os sistemas para serem mais precisos daí em diante.
As políticas do YouTube visam injustamente determinados grupos ou pontos de vista políticos?
Ao desenvolver e atualizar as nossas políticas, certificamo-nos de que ouvimos uma variedade de vozes diferentes, incluindo criadores, especialistas da área temática, proponentes da liberdade de expressão e organizações políticas de todo o espetro político.
Quando uma política é desenvolvida, investimos tempo significativo a garantir que as políticas recém-desenvolvidas são aplicadas de forma consistente pela nossa equipa global de revisores, com base em diretrizes objetivas. Antes de lançar qualquer política, é necessário que uma percentagem muito elevada dos revisores tome a mesma decisão de forma consistente num ambiente de teste (em que as decisões referentes à política não são efetivamente aplicadas). Se não o fizerem, revemos as diretrizes internas e de formação para garantir a clareza e repetimos o processo. O objetivo é reduzir a subjetividade e a parcialidade pessoal para alcançar precisão e consistência elevadas ao operar à escala. Só depois de se atingir um nível de precisão aceitável se pode lançar publicamente a política.