EXPLORAR
Recurso 1
The moral bias behind your search results | Andreas Ekstrom
Transcrição do vídeo em português: O viés moral por trás dos seus resultados de pesquisa
Tópicos do vídeo:
-
- O autor argumenta que a busca por resultados de pesquisa imparciais é um mito, pois o Google, como qualquer outro mecanismo de busca, é influenciado por vieses humanos.
- Ele usa exemplos de como a manipulação de resultados de pesquisa pode ser usada para fins racistas ou para promover uma narrativa específica, como no caso de Michelle Obama e Anders Behring Breivik.
- O autor defende a necessidade de reconhecer o viés humano por trás dos algoritmos e de integrar as humanidades na tecnologia para garantir uma maior consciência e responsabilidade na construção de ferramentas digitais.
Recurso 2
How I’m fighting bias in algorithms | Joy Buolamwini
Transcrição do vídeo em português: Como estou a combater o viés nos algoritmos
Tópicos do vídeo:
-
- Joy Buolamwini, uma especialista em tecnologia, argumenta que o viés algorítmico, presente em softwares de reconhecimento facial, pode levar à discriminação e exclusão de pessoas, especialmente aquelas que não se encaixam nos padrões de dados usados para treinar esses algoritmos.
- Ela destaca que a falta de diversidade nos conjuntos de dados utilizados para treinar algoritmos de reconhecimento facial resulta em sistemas que não reconhecem com precisão pessoas de diferentes etnias e raças.
- Buolamwini propõe a criação de um movimento chamado ‘incoding’, que visa promover a inclusão e a justiça na codificação, através da criação de equipas diversas, desenvolvimento de sistemas justos e priorização da mudança social no desenvolvimento tecnológico.
Recurso 3
The era of blind faith in big data must end | Cathy O’Neill
Transcrição do vídeo em português: A Era da Fé Cega em Big Data Deve Acabar
Tópicos do vídeo:
- Os algoritmos são usados para tomar decisões importantes, como quem recebe um emprego ou um empréstimo, mas eles podem ser tendenciosos e injustos.
- Cathy O’Neil argumenta que os algoritmos são como opiniões codificadas e que podem perpetuar preconceitos existentes.
- Ela defende a auditoria algorítmica para garantir que os algoritmos sejam justos e transparentes, e para que os cientistas de dados sejam responsáveis pelas consequências dos seus trabalhos.



