Podemos criar soluções éticas com IA?

primeira_pagina_overaprender_overparticipar_overresponder_over

EXPLORAR

Recurso 1

The moral bias behind your search results | Andreas Ekstrom

Transcrição do vídeo em português: O viés moral por trás dos seus resultados de pesquisa

Tópicos do vídeo:

    • O autor argumenta que a busca por resultados de pesquisa imparciais é um mito, pois o Google, como qualquer outro mecanismo de busca, é influenciado por vieses humanos.
    • Ele usa exemplos de como a manipulação de resultados de pesquisa pode ser usada para fins racistas ou para promover uma narrativa específica, como no caso de Michelle Obama e Anders Behring Breivik.
    • O autor defende a necessidade de reconhecer o viés humano por trás dos algoritmos e de integrar as humanidades na tecnologia para garantir uma maior consciência e responsabilidade na construção de ferramentas digitais.

Recurso 2

How I’m fighting bias in algorithms | Joy Buolamwini

Transcrição do vídeo em português: Como estou a combater o viés nos algoritmos

Tópicos do vídeo:

    • Joy Buolamwini, uma especialista em tecnologia, argumenta que o viés algorítmico, presente em softwares de reconhecimento facial, pode levar à discriminação e exclusão de pessoas, especialmente aquelas que não se encaixam nos padrões de dados usados para treinar esses algoritmos.
    • Ela destaca que a falta de diversidade nos conjuntos de dados utilizados para treinar algoritmos de reconhecimento facial resulta em sistemas que não reconhecem com precisão pessoas de diferentes etnias e raças.
    • Buolamwini propõe a criação de um movimento chamado ‘incoding’, que visa promover a inclusão e a justiça na codificação, através da criação de equipas diversas, desenvolvimento de sistemas justos e priorização da mudança social no desenvolvimento tecnológico.

Recurso 3

The era of blind faith in big data must end | Cathy O’Neill

Transcrição do vídeo em português: A Era da Fé Cega em Big Data Deve Acabar

Tópicos do vídeo:

  • Os algoritmos são usados para tomar decisões importantes, como quem recebe um emprego ou um empréstimo, mas eles podem ser tendenciosos e injustos.
  • Cathy O’Neil argumenta que os algoritmos são como opiniões codificadas e que podem perpetuar preconceitos existentes.
  • Ela defende a auditoria algorítmica para garantir que os algoritmos sejam justos e transparentes, e para que os cientistas de dados sejam responsáveis pelas consequências dos seus trabalhos.

primeira_pagina_overaprender_overparticipar_overresponder_over