= Discriminação algorítmica =
[[Ficheiro:A computer program for evaluating forestry opportunities under three investment criteria (1969) (20385500690).jpg|miniaturadaimagem|Um diagrama de 1969 que mostra como um programa de computador simples toma decisões, ilustrando um algoritmo muito básico.]]
'''Discriminação algorítmica''' é um conceito que corresponde ao ato de algoritmos '''[ Hiperligação em [Algoritmo|algoritmos - cami] '''] tomarem atitudes discriminatórias '''[ hiperligação em [Discriminação|discriminatórias , pode utilizar o verbete "discriminação" - cami] '''] ou exclusórias em relação <s>a seres humanos</s> '''[Acredito que essa parte deva sair - cami]''' a grupos específicos de seres humanos, especialmente quanto a [[Minoria|minorias]]. Estas atitudes podem ser desde simples erros em detecções faciais, até a condenação de um indivíduo por algoritmos jurídicos baseado em suas características raciais '''[ hiperligação em [raciais - cami] '''] ou de gênero '''[ hiperligação em [Género|gênero - cami] '''].<ref name=":1">{{Citar periódico |url=https://www.academia.edu/125482708/INTELIGÊNCIA_ARTIFICIAL_E_ALGORITMOS_DESIGUAIS_UMA_ABORDAGEM_JURISDICIONAL |título=INTELIGÊNCIA ARTIFICIAL E ALGORITMOS DESIGUAIS: UMA ABORDAGEM JURISDICIONAL |data=2024-01-01 |acessodata=2024-11-12 |periódico=CONPEDI |ultimo=Sabbad |primeiro=Jamile}}</ref> ▼
'''[Não é preciso adicionar nenhum título acima. Pois o título será inserido na página no momento da publicação do artigo no domínio principal. Ele aparecerá no lugar onde está escrito "Usuário(a):Jamilesabbad/Testes" - cami]'''
Em sua maioria, os algoritmos discriminatórios se encontram na área de [[Inteligência artificial|Inteligência Artificial]] e [[Aprendizado de máquina|aprendizado de máquina,]] nas quais decisões têm de ser tomadas baseadas em um [[banco de dados]] de entradas e outras técnicas de aprendizado e de tomada de decisões. Tendo isso em vista, se o banco de entradas para o aprendizado for inadequado para o treino em relação à [[diversidade]], [[pluralidade]] e [[igualdade]], ou a função de decisão for baseada em conceitos não éticos, o algoritmo de [[tomada de decisão]] pode vir a ter um comportamento discriminatório. A discriminação algorítmica está diretamente relacionada ao ''viés algorítmico.<ref name=":0" />''
'''[É recomendado que as seções não passem de 4 parágrafo, mais que isso pode-se utilizar subseções para destrinçar os assuntos. No caso da introdução, ela está dividida em parágrafo que introduzem o tema e parágrafos que explicam a definição do conceito, sugiro que o primeiro e último parágrafo se mantém na introdução e os demais (2, 3 e 4) migrem para uma nova seção com o título "Definição" - cami]'''
== Definição ==
'''[Inserir mais hiperligações ao longo do texto. Os links devem ser repetidos em seções diferentes, só não podem se repetir em uma mesma seção. Deixei sugestões de palavras para inserir hiperligação, mas sinta-se a vontade para inserir outras - cami]'''
Pela definição do ''The Blueprint for an AI Bill of Rights'' a "discriminação algorítmica" ocorre quando sistemas automatizados contribuem para tratamento ou impactos injustificados desfavoráveis a pessoas com base em sua raça, cor, etnia '''[ hiperligação em [etnia - cami] '''], sexo (incluindo, gravidez, parto e condições médicas relacionadas, identidade de gênero '''[ hiperligação em identidade de [Género|gênero - cami] '''], identificação [[Intersexo|intersex '''[hiperligação em interesso - cami] '''] e orientação sexual '''[ hiperligação em [orientação sexual - cami] ''') '''[Fiquei um pouco confusa do motivo desses exemplos estarem dentro de um parênteses em sexo, eles não podem ser apenas colocados como exemplos ao longo do texto? - cami] ''' , religião '''[ hiperligação em [religião - cami] '''], idade, origem nacional, deficiência '''[ hiperligação em [deficiência - cami] '''], status de veterano, informações genéticas ou qualquer outra classificação protegida por lei. Dependendo das circunstâncias específicas, essa discriminação algorítmica pode violar as proteções legais. <s>Neste contexto, o termo "discriminação algorítmica" assume esse significado (e não uma compreensão técnica de discriminação como distinguir entre itens).</s> '''[essa ultima frase não é necessária, pois já é explicado ao inicio do parágrafo que se trata da definição e significado - cami].'''<ref>{{citar web|ultimo=The White House|url=https://www.whitehouse.gov/wp-content/uploads/2022/10/Blueprint-for-an-AI-Bill-of-Rights.pdf|titulo=BLUEPRINT FOR AN AI BILL OF RIGHTS|data=2022}}</ref> ▼
<s>Nesse contexto, cabe conceituar ambas as palavras, discriminação e algoritmo.</s> '''[na escrita enciclopédica não é necessária essa frase no inicio do parágrafo, você pode iniciar assim: A definição de discriminação é... - cami]''' A discriminação é o ato de fazer distinções injustificadas entre pessoas com base em grupos, classes ou outras categorias das quais elas são consideradas pertencentes. As pessoas podem ser discriminadas com base em raça, sexo, gênero, idade, religião, deficiência, status migratório '''[ hiperligação em [Migração|migratório - cami] '''], orientação sexual, identidade de gênero, expressão de gênero, características sexuais. <s>, além de muitas outras categorias</s>. <ref>{{Citar web|url=https://www.unfe.org/pt/know-the-facts/definitions/|titulo=UN Free & Equal|acessodata=2024-11-12|website=www.unfe.org}}</ref> ▼
▲'''Discriminação algorítmica''' é um conceito que corresponde ao ato de algoritmos '''[Hiperligação em algoritmos - cami]''' tomarem atitudes discriminatórias '''[hiperligação em discriminatórias, pode utilizar o verbete "discriminação" - cami]''' ou exclusórias em relação <s>a seres humanos</s> '''[Acredito que essa parte deva sair - cami]''' a grupos específicos de seres humanos, especialmente quanto a [[Minoria|minorias]]. Estas atitudes podem ser desde simples erros em detecções faciais, até a condenação de um indivíduo por algoritmos jurídicos baseado em suas características raciais '''[hiperligação em raciais - cami]''' ou de gênero '''[hiperligação em gênero - cami]'''.<ref name=":1">{{Citar periódico |url=https://www.academia.edu/125482708/INTELIGÊNCIA_ARTIFICIAL_E_ALGORITMOS_DESIGUAIS_UMA_ABORDAGEM_JURISDICIONAL |título=INTELIGÊNCIA ARTIFICIAL E ALGORITMOS DESIGUAIS: UMA ABORDAGEM JURISDICIONAL |data=2024-01-01 |acessodata=2024-11-12 |periódico=CONPEDI |ultimo=Sabbad |primeiro=Jamile}}</ref>
▲Pela definição do ''The Blueprint for an AI Bill of Rights'' a "discriminação algorítmica" ocorre quando sistemas automatizados contribuem para tratamento ou impactos injustificados desfavoráveis a pessoas com base em sua raça, cor, etnia '''[hiperligação em etnia - cami]''', sexo (incluindo gravidez, parto e condições médicas relacionadas, identidade de gênero '''[hiperligação em identidade de gênero - cami]''', identificação intersex '''[hiperligação em interesso - cami]''' e orientação sexual '''[hiperligação em orientação sexual - cami]''') '''[Fiquei um pouco confusa do motivo desses exemplos estarem dentro de um parênteses em sexo, eles não podem ser apenas colocados como exemplos ao longo do texto? - cami]''' , religião '''[hiperligação em religião - cami]''', idade, origem nacional, deficiência '''[hiperligação em deficiência - cami]''', status de veterano, informações genéticas ou qualquer outra classificação protegida por lei. Dependendo das circunstâncias específicas, essa discriminação algorítmica pode violar as proteções legais. <s>Neste contexto, o termo "discriminação algorítmica" assume esse significado (e não uma compreensão técnica de discriminação como distinguir entre itens).</s> '''[essa ultima frase não é necessária, pois já é explicado ao inicio do parágrafo que se trata da definição e significado - cami].'''<ref>{{citar web|ultimo=The White House|url=https://www.whitehouse.gov/wp-content/uploads/2022/10/Blueprint-for-an-AI-Bill-of-Rights.pdf|titulo=BLUEPRINT FOR AN AI BILL OF RIGHTS|data=2022}}</ref>
▲<s>Nesse contexto, cabe conceituar ambas as palavras, discriminação e algoritmo.</s> '''[na escrita enciclopédica não é necessária essa frase no inicio do parágrafo, você pode iniciar assim: A definição de discriminação é... - cami]''' A discriminação é o ato de fazer distinções injustificadas entre pessoas com base em grupos, classes ou outras categorias das quais elas são consideradas pertencentes. As pessoas podem ser discriminadas com base em raça, sexo, gênero, idade, religião, deficiência, status migratório '''[hiperligação em migratório - cami]''', orientação sexual, identidade de gênero, expressão de gênero, características sexuais.<s>, além de muitas outras categorias</s>. <ref>{{Citar web|url=https://www.unfe.org/pt/know-the-facts/definitions/|titulo=UN Free & Equal|acessodata=2024-11-12|website=www.unfe.org}}</ref>
Um [[algoritmo]] pode ser compreendido como uma receita de bolo que pode alcançar o resultado almejado se a receita for seguida à risca, dessa forma os algoritmos são sequências finitas de instruções que guiam o computador a realizar alguma ação. Ou seja, as máquinas são controladas pelos algoritmos.<ref name=":0">{{Citar periódico |url=https://www.academia.edu/114040800/Racismo_Algor%C3%ADtmico |título=Racismo Algorítmico |data=2023-01-01 |acessodata=2024-11-12 |periódico=Racismo algorítmico |ultimo=Kremer |primeiro=Bianca}}</ref>
Em sua maioria, os algoritmos discriminatórios se encontram na área de [[Inteligência artificial|Inteligência Artificial]] e [[Aprendizado de máquina|aprendizado de máquina,]] nas quais decisões têm de ser tomadas baseadas em um banco de dados '''[hiperligação em [banco de dados - cami]'''] de entradas e outras técnicas de aprendizado e de tomada de decisões. Tendo isso em vista, se o banco de entradas para o aprendizado for inadequado para o treino em relação à diversidade '''[hiperligação em [diversidade - cami]'''], pluralidade '''[hiperligação[Diversidade, emequidade e inclusão|pluralidade - cami]'''] e igualdade '''[hiperligação em [igualdade - cami]'''], ou a função de decisão for baseada em conceitos não éticos, o algoritmo de [[tomada de decisão]] pode vir a ter um comportamento discriminatório. A discriminação algorítmica está diretamente relacionada ao ''viés algorítmico.<ref name=":0" />''
== Viés algorítmico ==
[[Ficheiro:02-Sandvig-Seeing-the-Sort-2014-WEB.png|miniaturadaimagem|Um fluxograma mostrando as decisões tomadas por um mecanismo de recomendação.]]
O viés (em inglês '''bias ''') '''[Retirar negrito - cami]''' é um conceito que pode ser descrito como a "distorção do julgamento de um observador por estar ele intimamente envolvido com o objeto de sua observação". O '''viés algorítmico ''' '''[Retirar negrito - cami]'''é uma tendência sistemática do modelo a fazer previsões ou classificações tendenciosas, afetando a veracidade '''[ Hiperligação em [veracidade - cami] '''], precisão e justiça dos resultados. Essa é uma consequência, proposital ou não, está relacionada à construção de algoritmos, tendo em vista que quando uma máquina é treinada para ter uma [[inteligência artificial]], ela necessita passar por um processo de aprendizagem para que tome as decisões que o seu criador julga corretas. Para que isso ocorra, é necessária uma grande quantidade de aprendizado de dados para que ela treine seu conhecimento sobre a decisão a ser tomada baseada em uma função de decisão escolhida no seu desenvolvimento <ref name="livroMitchell">[https://books.google.com.br/books/about/Machine_Learning.html?id=EoYBngEACAAJ&redir_esc=y] Machine Learning - Tom M. Mitchell - 1997</ref>. ▼
'''[O uso do negrito deve seguir o [[Wikipédia:Livro de estilo|livro de estilos]] da Wikipédia, e deve ser utilizado apenas na primeira vez que o título do artigo for escrito no verbete - cami]'''
Como os algoritmos de [[aprendizagem de máquina]] são relacionados a pessoas, eles podem apresentar um viés discriminatório por diversos fatores, tanto relacionados ao seu treinamento (reflexo do mercado de tecnologia ou da escolha dos dados) quanto à sua implementação (interpretação dos resultados pelo ser humano) e isso é chamado de '''viés algorítmico [Retirar negrito - cami]'''.<ref name=":1" /> ▼
'''[É recomendado que as seções não passem de 4 parágrafo, mais que isso pode-se utilizar subseções para destrinçar os assuntos. Como por exemplo: uma subseção apresentando casos reais de vieses algoritmos após o segundo parágrafo, quando você explica a pesquisa "Quem Coda BR" e depois o caso da pesquisadora Joy. - cami]'''
== Casos reais de vieses algorítmicos ==
▲O viés (em inglês '''bias''') '''[Retirar negrito - cami]''' é um conceito que pode ser descrito como a "distorção do julgamento de um observador por estar ele intimamente envolvido com o objeto de sua observação". O '''viés algorítmico''' '''[Retirar negrito - cami]'''é uma tendência sistemática do modelo a fazer previsões ou classificações tendenciosas, afetando a veracidade '''[Hiperligação em veracidade - cami]''', precisão e justiça dos resultados. Essa é uma consequência, proposital ou não, está relacionada à construção de algoritmos, tendo em vista que quando uma máquina é treinada para ter uma [[inteligência artificial]], ela necessita passar por um processo de aprendizagem para que tome as decisões que o seu criador julga corretas. Para que isso ocorra, é necessária uma grande quantidade de aprendizado de dados para que ela treine seu conhecimento sobre a decisão a ser tomada baseada em uma função de decisão escolhida no seu desenvolvimento <ref name="livroMitchell">[https://books.google.com.br/books/about/Machine_Learning.html?id=EoYBngEACAAJ&redir_esc=y] Machine Learning - Tom M. Mitchell - 1997</ref>.
A discriminação algorítmica muitas vezes resulta da incorporação de vieses sociais nas máquinas. Essa afirmação é respaldada pela pesquisa “Quem Coda BR”, realizada pelo PretaLab em parceria com a Thoughtworks, que levantou dados sobre o perfil dos profissionais de tecnologia no Brasil, isto é, sobre os “criadores” de diversas inteligências artificiais. Conduzido entre novembro de 2018 e março de 2019, o estudo contou com a participação de 693 pessoas de 21 estados brasileiros, incluindo o Distrito Federal, que atuavam em empresas focadas em tecnologia '''[ hiperligação em [tecnologia - cami] '''] ou em departamentos tecnológicos de diversas instituições. <ref name=":2">{{citar web|ultimo=PretaLab; Thoughtworks|url=https://www.thoughtworks.com/content/dam/thoughtworks/documents/report/tw_report_quem_coda_br.pdf|titulo=QuemCodaBR|data=2019}}</ref> '''[Senti que esse e os demais parágrafos estão parciais, isto é, tentam convencer o leitor a um ponto de vista, lembre-se que os textos da Wiki devem sempre passar fatos e dados, mas sem instigar o leitor a um lado. Recomendo que inicie o parágrafo assim: De acordo com a pesquisa "Quem Coda BR", realizada [...], a discriminação algorítmica resulta em tal coisa [...] - cami]'''▼
Os resultados evidenciam de forma clara '''[Essa expressão "de forma clara" está trazendo parcialidade o verbete - cami]''' a falta de diversidade nas equipes de tecnologia: em 64,9% dos casos, as mulheres representam, no máximo, 20% das equipes; em 77,1%, um máximo de 10% dos integrantes se declara como pertencente a uma orientação sexual '''[ hiperligação em [orientação sexual - cami] '''] diferente da heterossexual '''[ hiperligação em [Heterossexualidade|heterossexual - cami] ''']; e em 88,4%, não há nenhuma autodeclaração de gênero '''[ hiperligação em [Género|gênero - cami] '''] diverso de homem e mulher. <ref name=":2" /> ▼
▲Como os algoritmos de [[aprendizagem de máquina]] são relacionados a pessoas, eles podem apresentar um viés discriminatório por diversos fatores, tanto relacionados ao seu treinamento (reflexo do mercado de tecnologia ou da escolha dos dados) quanto à sua implementação (interpretação dos resultados pelo ser humano) e isso é chamado de '''viés algorítmico [Retirar negrito - cami]'''.<ref name=":1" />
Esse estudo oferece um retrato significativo '''[A expressão "significativo" apresenta um caracter parcial ao verbete - cami]''' do mercado tecnológico no Brasil e conclui que esse setor é predominantemente ocupado por homens brancos, jovens de classe socioeconômica média e alta, que frequentemente iniciam suas trajetórias profissionais em instituições de ensino formais. Essa realidade indica que o viés discriminatório pode refletir o próprio mercado de tecnologia que desenvolve esses sistemas, que muitas vezes escolhe os dados utilizados no seu desenvolvimento. Quando os desenvolvedores não pertencem a grupos minoritários '''[ hiperligação em [Minoritarismo|minoritários - cami] ''' ], eles podem ser parciais quanto aos dados que fornecem à inteligência artificial, não percebendo a falta de representatividade do banco de dados. Isso resulta na perpetuação de preconceitos '''[ hiperligação em [Preconceito|preconceitos - cami] '''], que se manifestam nos algoritmos e que impactam negativamente a vida de indivíduos que não estão adequadamente representados nas amostras de dados. <ref name=":2" /> ▼
▲A discriminação algorítmica muitas vezes resulta da incorporação de vieses sociais nas máquinas. Essa afirmação é respaldada pela pesquisa “Quem Coda BR”, realizada pelo PretaLab em parceria com a Thoughtworks, que levantou dados sobre o perfil dos profissionais de tecnologia no Brasil, isto é, sobre os “criadores” de diversas inteligências artificiais. Conduzido entre novembro de 2018 e março de 2019, o estudo contou com a participação de 693 pessoas de 21 estados brasileiros, incluindo o Distrito Federal, que atuavam em empresas focadas em tecnologia '''[hiperligação em tecnologia - cami]''' ou em departamentos tecnológicos de diversas instituições. <ref name=":2">{{citar web|ultimo=PretaLab; Thoughtworks|url=https://www.thoughtworks.com/content/dam/thoughtworks/documents/report/tw_report_quem_coda_br.pdf|titulo=QuemCodaBR|data=2019}}</ref> '''[Senti que esse e os demais parágrafos estão parciais, isto é, tentam convencer o leitor a um ponto de vista, lembre-se que os textos da Wiki devem sempre passar fatos e dados, mas sem instigar o leitor a um lado. Recomendo que inicie o parágrafo assim: De acordo com a pesquisa "Quem Coda BR", realizada [...], a discriminação algorítmica resulta em tal coisa [...] - cami]'''
Um exemplo notável '''["Notável" é uma expressão que trás parcialidade - cami]''' é o caso da pesquisadora [[Joy Buolamnwini]], que identificou a falta de diversidade no banco de dados utilizado para desenvolver um algoritmo de reconhecimento facial '''[ hiperligação em [reconhecimento facial - cami] '''] enquanto realizava testes com seu próprio rosto, sendo uma mulher negra. O sistema, que foi desenvolvido durante seu tempo no MIT '''[ hiperligação[Instituto emde MITTecnologia -de camiMassachusetts|MIT]] ''', era eficaz em reconhecer os rostos de seus colegas brancos, mas falhou ao tentar reconhecer o dela. Apenas quando Joy colocou uma máscara branca de fantasia o algoritmo foi capaz de identificá-la corretamente. Esse episódio revela como a falta de diversidade nos dados pode comprometer a eficácia de tecnologias como o reconhecimento facial, e destaca a importância de testá-las em populações diversas. <s>Se Joy não estivesse presente na equipe, esse erro grave poderia ter passado despercebido, perpetuando o viés racial no uso da tecnologia</s>.<ref name="ted">[https://www.ted.com/talks/joy_buolamwini_how_i_m_fighting_bias_in_algorithms#t-44733] Joy Buolamwini:How I'm fighting bias in algorithms - TED - 2016</ref> '''[A ultima sentença não está de acordo com a escrita enciclopédica, que apenas apresenta fatos, sem colocar opinião ou tentar convencer o leitor - cami]''' ▼
▲Os resultados evidenciam de forma clara '''[Essa expressão "de forma clara" está trazendo parcialidade o verbete - cami]''' a falta de diversidade nas equipes de tecnologia: em 64,9% dos casos, as mulheres representam, no máximo, 20% das equipes; em 77,1%, um máximo de 10% dos integrantes se declara como pertencente a uma orientação sexual '''[hiperligação em orientação sexual - cami]''' diferente da heterossexual '''[hiperligação em heterossexual - cami]'''; e em 88,4%, não há nenhuma autodeclaração de gênero '''[hiperligação em gênero - cami]''' diverso de homem e mulher. <ref name=":2" />
▲Esse estudo oferece um retrato significativo '''[A expressão "significativo" apresenta um caracter parcial ao verbete - cami]''' do mercado tecnológico no Brasil e conclui que esse setor é predominantemente ocupado por homens brancos, jovens de classe socioeconômica média e alta, que frequentemente iniciam suas trajetórias profissionais em instituições de ensino formais. Essa realidade indica que o viés discriminatório pode refletir o próprio mercado de tecnologia que desenvolve esses sistemas, que muitas vezes escolhe os dados utilizados no seu desenvolvimento. Quando os desenvolvedores não pertencem a grupos minoritários '''[hiperligação em minoritários - cami]''' , eles podem ser parciais quanto aos dados que fornecem à inteligência artificial, não percebendo a falta de representatividade do banco de dados. Isso resulta na perpetuação de preconceitos '''[hiperligação em preconceitos - cami]''', que se manifestam nos algoritmos e que impactam negativamente a vida de indivíduos que não estão adequadamente representados nas amostras de dados. <ref name=":2" />
▲Um exemplo notável '''["Notável" é uma expressão que trás parcialidade - cami]''' é o caso da pesquisadora [[Joy Buolamnwini]], que identificou a falta de diversidade no banco de dados utilizado para desenvolver um algoritmo de reconhecimento facial '''[hiperligação em reconhecimento facial - cami]''' enquanto realizava testes com seu próprio rosto, sendo uma mulher negra. O sistema, que foi desenvolvido durante seu tempo no MIT '''[hiperligação em MIT - cami]''', era eficaz em reconhecer os rostos de seus colegas brancos, mas falhou ao tentar reconhecer o dela. Apenas quando Joy colocou uma máscara branca de fantasia o algoritmo foi capaz de identificá-la corretamente. Esse episódio revela como a falta de diversidade nos dados pode comprometer a eficácia de tecnologias como o reconhecimento facial, e destaca a importância de testá-las em populações diversas. <s>Se Joy não estivesse presente na equipe, esse erro grave poderia ter passado despercebido, perpetuando o viés racial no uso da tecnologia</s>.<ref name="ted">[https://www.ted.com/talks/joy_buolamwini_how_i_m_fighting_bias_in_algorithms#t-44733] Joy Buolamwini:How I'm fighting bias in algorithms - TED - 2016</ref> '''[A ultima sentença não está de acordo com a escrita enciclopédica, que apenas apresenta fatos, sem colocar opinião ou tentar convencer o leitor - cami]'''
== Tipos de vieses algorítmicos ==
Estes são os principais tipos de viés algorítmico e os que ocorrem com a maior frequência:
* '''Viés racial [Retirar negrito - cami]''': Refere-se a ações algorítmicas discriminatórias que resultam em tratamentos desiguais às pessoas com base na sua raça, cor, descendência '''[hiperligação em [descendência - cami]'''] ou origem nacional ou étnica '''[hiperligação em [étnica - cami]'''], seja pelo [[racismo estrutural]] estrutural '''[eu colocaria a hiperligação em racismo estrutural, ao invés de só racismo - cami]'''ou por expectativas sociais enraizadas. Esse viés, também conhecido como racismo '''[aqui você poderia colocar uma hiperligação em [racismo - cami]'''] algorítmico, se expressa a partir das [[Desigualdade|desigualdades '''[hiperligação em desigualdade - cami]'''] políticas, econômicas '''[aqui você pode colocar uma hiperligação sobre desigualdade[Desigualdade econômica, pois existe esse verbete - cami|econômicas]]''' e jurídicas próprias do racismo estrutural, e não de falhas pontuais do uso e produção da tecnologia em cada caso concreto. Um exemplo <s>concreto</s> '''[Recomendo colocar apenas "Um exemplo é... - cami]''' é o uso de algoritmos de reconhecimento facial que apresentam maiores taxas de erro ao identificar pessoas negras ou de outras etnias não brancas, em comparação a indivíduos brancos. Um caso emblemático '''[O "emblemático" deixa seu verbete parcial - cami]''' ocorreu quando um sistema de reconhecimento facial usado pela polícia identificou erroneamente um homem negro como suspeito de um crime que não cometeu, levando a uma prisão injusta. Isso ocorre porque muitos desses algoritmos são treinados em bases de dados com predominância de rostos brancos, perpetuando preconceitos raciais. Outro exemplo seria um algoritmo utilizado por empresas de crédito ou por seguradoras, que pode classificar de forma desigual pessoas negras com base em dados históricos enviesados, como locais de residência ou histórico familiar, agravando a desigualdade no acesso a serviços financeiros.<ref name=":0" />
* '''Viés social [Retirar negrito - cami]''': Refere-se a ações algorítmicas discriminatórias que resultam em tratamento desigual ou segregação '''[hiperligação em [segregação - cami]'''] de um indivíduo com base em sua classe social '''[hiperligação em [classe social - cami]''']. O preconceito social pode ser chamado de [[elitismo classista]] e pode se manifestar de várias formas em processos automatizados que utilizam inteligência artificial '''[hiperligação em [inteligência artificial - cami]''']. Um exemplo seria um sistema de análise de crédito que, ao avaliar uma solicitação de empréstimo, atribui uma pontuação menor a indivíduos de classes sociais mais baixas, com base em fatores como o endereço residencial ou histórico educacional, mesmo que a pessoa tenha um bom histórico financeiro. Outro exemplo seria um sistema de recrutamento automatizado que favorece candidatos de escolas ou universidades de prestígio '''[Prestígio para quem? Precisa explicar melhor essa afirmação. O que seria universidade de prestígio? - cami]'''particulares, descartando automaticamente aqueles que estudaram em instituições públicas ou em áreas periféricas, independentemente de suas qualificações profissionais ou habilidades. Além disso, um sistema de recomendação de serviços pode oferecer produtos ou oportunidades de trabalho de menor remuneração para pessoas de classes sociais mais baixas, perpetuando a segregação e as desigualdades socioeconômicas.<ref name="mathdestruction">[http://www.nationalbook.org/nba2016_nf_oneil-weapons-of-math-destruction.html#.WUn_BMaQzIU] Weapons of math destruction - A book by Cathy O'Neil, 2016</ref>
* '''Viés relacionado ao [[Género|gênero]] [Retirar negrito - cami]''': Refere-se a ações algorítmicas preconceituosas que acarretam resultados desiguais às pessoas com base no seu gênero, seja por expectativas sociais, estereótipos ou normas culturais. Além disso, inclui discriminação contra pessoas intersexo '''[hiperligação em [intersexo - cami]'''] ou que se identificam fora do [[Generismo|binário masculino/feminino]]. Esse tipo de viés pode se manifestar de várias maneiras em processos automatizados com uso de inteligência artificial, um exemplo comum é um sistema de recrutamento que, ao analisar currículos, favorece homens para cargos de liderança e tecnologia, enquanto subestima candidatas mulheres ou pessoas de outros gêneros para essas mesmas posições. Isso pode ocorrer porque o algoritmo foi treinado com dados históricos em que homens predominavam em tais cargos, perpetuando a desigualdade. Outro exemplo seria um sistema de recomendação de anúncios que, ao promover oportunidades de emprego ou produtos, exibe vagas de trabalho na área de cuidados e educação predominantemente para mulheres, reforçando estereótipos de gênero. Além disso, algoritmos de identificação de gênero podem falhar em reconhecer adequadamente pessoas que se identificam fora do binário masculino/feminino, como indivíduos não-binários, ou podem discriminar pessoas intersexo, ao não permitir que selecionem sua identidade de gênero em formulários ou sistemas automatizados. <ref name=":3">{{citar web|ultimo=Buolamwini|primeiro=Joy|url=https://proceedings.mlr.press/v81/buolamwini18a/buolamwini18a.pdf|titulo=Gender Shades: Intersectional Accuracy Disparities in Commercial Gender Classification∗|data=2018}}</ref>
* '''Viés relacionado à [[orientação sexual]] [Retirar negrito - cami]:''' Refere-se a ações algorítmicas tendenciosas '''[a expressão tendenciosa deixa seu verbete parcial - cami]''' que resultam em tratamento desigual às pessoas com base em sua orientação sexual, ou seja, com base na atração ou sentimentos românticos, emocionais e/ou físicos de alguém por pessoas do mesmo gênero, de um gênero diferente ou de mais de um gênero. São exemplos de orientação sexual, a [[heterossexualidade]], [[homossexualidade]], [[bissexualidade]], [[pansexualidade]], [[assexualidade]], [[Intersexo|intersexualidade]], mas ainda há uma ampla gama de outras expressões de orientação sexual. Esse tipo de viés pode se manifestar por meio da [[homofobia]], [[Intersexo|intersexofobia/interfobia]], assexofobia, [[bifobia]], [[discurso de ódio]] e até o [[crime de ódio]].Um exemplo desse viés seria um algoritmo que gera avatares digitais ou imagens de perfil para redes sociais, excluindo ou distorcendo características sexuais importantes de uma pessoa intersexo, representando-a de forma padronizada e invisibilizando sua identidade física. Da mesma forma, um software de reconhecimento facial pode apresentar dificuldade em identificar corretamente indivíduos trans ou intersexuais devido a padrões baseados em uma concepção binária de sexo, o que pode levar a erros de identificação ou exclusão de pessoas cujas características sexuais não se enquadram nessas normas rígidas.<ref name=":3" />
* '''Viés relacionado às características sexuais[Retirar negrito - cami]''': Refere-se a ações algorítmicas tendenciosas '''[a expressão "tendenciosa" deixa seu verbete parcial - cami]''' que resultam em tratamento desigual às pessoas com base em suas características físicas relacionadas ao sexo, incluindo anatomia sexual, órgãos reprodutivos '''[hiperligação em [órgãos reprodutivos - cami]'''], padrões hormonais, cromossômicos e características físicas secundárias que surgem na puberdade '''[hiperligação em [puberdade - cami]'''], como o tom de voz, crescimento de pelos corporais/faciais ou desenvolvimento de seios. Um exemplo desse viés pode ocorrer em plataformas de saúde que utilizam inteligência artificial para avaliar riscos médicos, onde o sistema subestima o risco de doenças cardíacas em mulheres porque baseia suas análises em dados históricos predominantemente masculinos. Isso ocorre porque características sexuais específicas, como níveis hormonais ou o impacto de condições como a menopausa '''[hiperligação em [menopausa - cami]'''], não são devidamente considerados nos cálculos, levando a diagnósticos menos precisos para pessoas do sexo feminino.<ref>{{Citar web|url=https://jornal.unicamp.br/edicao/696/inteligencia-artificial-ajuda-a-identificar-riscos-de-infarto/|titulo=Inteligência Artificial ajuda a identificar riscos de infarto|acessodata=2024-11-12|website=Jornal da Unicamp|lingua=pt-BR}}</ref>
* '''Viés religioso [Retirar negrito - cami]''': Refere-se a ações algorítmicas preconceituosas que, ao avaliarem informações, reforçam crenças religiosas, resultando em avaliações desiguais ou injustas com base na escolha religiosa de uma pessoa. Esse viés pode ser influenciado por expectativas sociais, estereótipos ou normas culturais. No Brasil, as religiões de matriz africana '''[hiperligação em [matriz africana]] - cami]''' frequentemente sofrem maior discriminação e [[intolerância religiosa]], devido à sua origem étnica e cultural, em função do racismo estrutural. Esse viés pode se manifestar quando, em um processo automatizado, uma inteligência artificial considera a religião de uma pessoa em um contexto onde essa informação é irrelevante, como em uma candidatura para um cargo de gestão em uma empresa pública brasileira, onde a [[Laicismo#:~:text=O secularismo francês, laicismo ou,à esfera privada do indivíduo.|laicidade]] deveria ser uma premissa essencial, conforme leis nacionais.<ref>{{Citar web|ultimo=Segundo|primeiro=iG Último|url=https://ultimosegundo.ig.com.br/mundo/2024-11-10/como-a-comunicacao-de-massa-afeta-a-liberdade-individual-de-religiao-na-sociedade-de-dados.html|titulo=Opinião: Liberdade Religiosa Digital|data=2024-11-10|acessodata=2024-11-12|website=Portal iG|lingua=pt-BR}}</ref>
* '''Viés relacionado à idade [Retirar negrito - cami]''': Refere-se a ações algorítmicas preconceituosas que acarretam resultados desiguais às pessoas com base na sua idade, seja por expectativas sociais, estereótipos ou normas culturais. Esse tipo de viés pode ser chamado de [[Discriminação etária|etarismo]], discriminação etária, discriminação generacional, etaísmo ou idadismo e se manifesta de diversas maneiras, como subestimar as capacidades de alguém por ser da terceira idade '''[hiperligação em [terceira idade - cami]'''] ou por ser adolescente '''[hiperligação em [adolescente - cami]''']. Um exemplo seria um sistema de recrutamento automatizado que, ao avaliar candidatos para uma vaga de emprego, descarta automaticamente pessoas acima de 60 anos por considerar, com base em estereótipos, que elas não possuem habilidades tecnológicas suficientes, ou, por outro lado, rejeita candidatos adolescentes para uma posição de liderança por acreditar que lhes falta maturidade, mesmo sem uma análise concreta das suas competências. Isso resulta em decisões discriminatórias que ignoram a experiência e as habilidades reais do indivíduo.<ref name="mathdestruction" />
* '''Viés relacionado à nacionalidade [Retirar negrito - cami]''': Refere-se a ações algorítmicas preconceituosas que resultam em decisões desiguais às pessoas com base na sua nacionalidade '''[hiperligação em nacionalidade - cami]''' ou no seu status migratório '''[hiperligação[Migração emhumana|status migratório - cami]'''], acarretando intolerância contra indivíduos de outras nacionalidades. Essa discriminação, também conhecida como [[xenofobia]], pode se manifestar em diversos contextos, inclusive em países com grande extensão territorial, como o Brasil, onde discursos de ódio podem ser dirigidos a pessoas oriundas de regiões ou estados específicos. Um exemplo seria um sistema de análise de crédito automatizado que, ao avaliar o perfil de um cliente para a concessão de um empréstimo, atribui uma pontuação mais baixa para estrangeiros ou migrantes, sem levar em consideração seus reais antecedentes financeiros. Outro caso poderia ocorrer em plataformas de recrutamento que favorecem candidatos de estados do Sudeste do Brasil em detrimento de candidatos do Norte ou Nordeste, com base em preconceitos regionais enraizados, sem analisar de forma justa as qualificações e competências dos indivíduos. <ref name="mathdestruction" />
* '''Viés relacionado à [[deficiência]] [Retirar negrito - cami]''': Refere-se a ações algorítmicas preconceituosas que resultam em decisões desiguais às pessoas com base em deficiências físicas '''[hiperligação em deficiência[Deficiência física|deficiências - camifísicas]]''' ou mentais '''[hiperligação em deficiência[Deficiência intelectual - cami|intelectuais]'''.]: Esse tipo de viés pode incluir discriminação direta ou indireta contra indivíduos, levando em conta, de forma inadequada, limitações físicas ou cognitivas que não são relevantes para o contexto da decisão. Um exemplo seria um sistema de recrutamento automatizado que, ao identificar uma deficiência física no histórico de um candidato, descarta automaticamente sua candidatura para uma vaga que poderia ser perfeitamente executada com adaptações mínimas, violando o princípio da acessibilidade. Outra manifestação desse viés pode ocorrer quando algoritmos de seguros de saúde analisam informações genéticas de uma pessoa para definir prêmios ou condições de cobertura, penalizando aquelas que possuem predisposições genéticas para determinadas condições de saúde, mesmo que tais predisposições não estejam necessariamente relacionadas ao seu estado atual de saúde ou à sua capacidade de trabalho.<ref>{{Citar periódico |url=https://www.scielo.br/j/eb/a/HSy9D6BjLP6P9Gv3mtBvVyn/ |título=O CAPACITISMO E SUAS FORMAS DE OPRESSÃO NAS AÇÕES DO DIA A DIA |data=2023-10-20 |acessodata=2024-11-12 |periódico=Encontros Bibli |ultimo=Lage |primeiro=Sandra Regina Moitinho |ultimo2=Lunardelli |primeiro2=Rosane Suely Alvares |paginas=e93040 |lingua=pt |doi=10.5007/1518-2924.2023.e93040 |issn=1518-2924 |ultimo3=Kawakami |primeiro3=Tatiana Tissa}}</ref>
* '''Viés político [Retirar negrito - cami]''': Refere-se a ações algorítmicas que resultam em tratamento desigual ou manipulação de informações com base em afiliações ou ideologias políticas '''[hiperligação em ideologia[Ideologia política|ideologias - camipolíticas]]'''. Esse tipo de viés pode manifestar-se em plataformas digitais que utilizam algoritmos para personalizar o conteúdo exibido aos usuários, criando bolhas de informação que reforçam crenças pré-existentes e limitam a exposição a perspectivas [[Divergente|divergentes '''[hiperligação em divergente - cami]''']. Um exemplo significativo desse fenômeno é observado nas eleições no Brasil onde a modulação de conteúdo desempenhou um papel crucial na formação da [[opinião pública '''[hiperligação em opinião publica - cami]''']. Durante o processo eleitoral, algoritmos de redes sociais foram criticados por favorecerem determinados conteúdos que se alinham com visões políticas específicas, enquanto suprimem ou descredibilizam informações que contradizem essas narrativas. O [[viés político]] não apenas molda a informação que os cidadãos recebem, mas também pode impactar a saúde democrática das sociedades, ao limitar o debate público e criar divisões.<ref>{{Citar periódico |url=https://www.academia.edu/125482471/NORMAS_DO_TRIBUNAL_SUPERIOR_ELEITORAL_PARA_AS_ELEI%C3%87%C3%95ES_MUNICIPAIS_BRASILEIRAS_E_A_TECNOLOGIA_DESAFIOS_E_OPORTUNIDADES_NO_%C3%82MBITO_DO_MPRJ |título=NORMAS DO TRIBUNAL SUPERIOR ELEITORAL PARA AS ELEIÇÕES MUNICIPAIS BRASILEIRAS E A TECNOLOGIA: DESAFIOS E OPORTUNIDADES NO ÂMBITO DO MPRJ |data=2024-01-01 |acessodata=2024-11-12 |periódico=CONPEDI |ultimo=Sabbad |primeiro=Jamile}}</ref> Ressalta-se que as formas de discriminação podem ser múltiplas e interseccionais, ou seja, a discriminação algorítmica poderá ocorrer com base em dois ou mais motivos que interagem de maneira complexa e/ou inseparável, produzindo impactos negativos compostos e formas distintas e específicas de discriminação. Por exemplo, uma mulher jovem, negra e bissexual pode sofrer um impacto negativo desproporcional em decorrência de uma soma de discriminação e marginalização racista, por idade, bifóbica e sexista.<ref>{{Citar web|url=https://www.unfe.org/pt/know-the-facts/definitions/|titulo=UN Free & Equal|acessodata=2024-11-12|website=www.unfe.org}}</ref>
== Causas do viés algorítmico ==
O viés algorítmico é causado por falhas no processo do [[desenvolvimento de software]], manifestando-se em diversas etapas como no design, desenvolvimento, teste e distribuição. Embora frequentemente associado a sistemas que utilizam [[inteligência artificial]], esse viés pode pode ocorrer em outros tipos de software, principalmente por erros na hora da documentação de requisitos ou na implementação. O viés algorítmico não é apenas um reflexo de negligência ou falta de atenção dos criadores do software, na realidade, em muitos casos é manifestação de intenções preconceituosas e antiéticas. <ref name="ted" />
Algoritmos faciais '''[Você[Sistema acha que se encaixa colocar uma hiperligação emde reconhecimento facial?|Algoritmos - camifaciais]]''' são uns dos principais tipos de software que sofrem do viés algorítmico. Estes algoritmos precisam de uma base de dados de faces para seu treinamento, quando essa base de dados não possui uma diversidade '''[hiperligação[Diversidade, emequidade diversidadee - camiinclusão|diversidade]]''' de rostos em relação às formas, cores e tipos diferentes, o algoritmo não irá detectar as faces que não possuem características semelhantes às faces dos dados de aprendizado, resultando em um caso de viés algorítmico <ref name="googleads">[https://www.youtube.com/watch?v=Bmusl2dOZCw] Harvard Accuses Google Ads of Racism - The Young Turks - 2013</ref>
Além disso, algoritmos utilizados para sugestão de anúncios também podem perpetuar comportamentos e crenças discriminatórias por meio do viés algorítmico, quando mal projetados ou mal treinados, podem gerar recomendações que não apenas refletem, mas também reforçam estereótipos sociais nocivos. Por exemplo, a prática comum de direcionar [[Propaganda|propagandas '''[hiperligação em propaganda - cami]''' de] produtos de limpeza exclusivamente para mulheres, enquanto os homens são frequentemente associados a produtos eletrônicos ou esportivos, perpetua a ideia de que essas funções são inerentemente ligadas ao gênero. Essa segmentação não apenas limita as opções disponíveis para os consumidores, mas também contribui para a manutenção de uma cultura [[Misoginia|misógina '''[hiperligação em misoginia - cami]'''], onde o papel da mulher é reduzido a atividades domésticas.<ref>{{Citar web|url=https://celacc.eca.usp.br/pt-br/celacc-tcc/1693/detalhe|titulo=A representação feminina em propagandas de produtos de limpeza: uma análise sobre imagem e discursos {{!}} CELACC USP|acessodata=2024-11-12|website=celacc.eca.usp.br}}</ref>
Mais preocupante ainda '''[A expressão "mais preocupante ainda" trás parcialidade ao verbete - cami]''' é a possibilidade de que algoritmosAlgoritmos de busca e recomendação possam sugerir conteúdos discriminatórios ou pejorativos. Um exemplo disso é a prática de sugerir anúncios relacionados a consultas de ficha criminal para buscas que envolvem nomes de pessoas predominantemente negras. Esse tipo de viés não apenas perpetua estigmas raciais, mas também alimenta um ciclo vicioso de discriminação, onde certos grupos são continuamente [[Marginalização|marginalizados '''[hiperligação em marginalização - cami]'''] e criminalizados. Esses exemplos revelam como os softwares, longe de serem ferramentas neutras, podem se tornar instrumentos de perpetuação de desigualdades sociais e de comportamentos discriminatórios. Assim, é essencial '''[Nesse trecho você coloca sua opinião, é importante que o texto do verbete siga a linguagem enciclopédica, apenas apresentando fatos, sem colocar opiniões - cami]''' que os desenvolvedores de tecnologia adotem uma abordagem crítica e ética na criação e implementação de algoritmos, reconhecendo a responsabilidade que têm em moldar a sociedade por meio das decisões que tomam na construção de suas ferramentas. <ref name=":2" />
== Casos reais de discriminações algorítmicas ==
=== Problemas de reconhecimento facial em câmeras digitais ===
Já ocorreram diversos casos de discriminação racial '''[hiperligação em [discriminação racial- cami]'''] causados por algoritmos de reconhecimento facial em [[câmeras digitais]] e [[webcams]]. A câmera ''Nikon Coolpix S630'' é um exemplo disso, a câmera tinha um sistema de detecção de fotos que avisava ao usuário quando as pessoas fotografadas haviam piscado. Quando pessoas com características asiáticas '''[hiperligação em [Asiáticos|asiáticas - cami]'''] tiravam fotos com esta câmera, ela sempre emitia o alerta em que pessoas haviam piscado na foto. Há também o caso de [[webcams]] da [[HP]] que não conseguiam detectar o rosto de usuários negros em qualquer tipo de iluminação, um vídeo foi divulgado na internet onde uma mulher branca se aproximava da câmera e ela instantaneamente reagia e davam um zoom na face da mulher. Quando um homem negro se aproximava da mesma câmera, logo após a mulher, nada acontecia. Estes dois casos são um exemplo de discriminações causadas pelo viés algorítmico, o banco de dados de faces usado para o aprendizado destes algoritmos não possuía faces com características de pessoas com características asiáticas ou negras<ref name="cameranikon">[http://content.time.com/time/business/article/0,8599,1954643,00.html] Are Face-Detection Cameras Racist? - TIME, 2010</ref><ref name="camerahp">[http://news.bbc.co.uk/2/hi/technology/8429634.stm]HP camera 'can't see' black faces - BBC, 2009</ref>.
O reconhecimento facial costuma falhar mais frequentemente ao tentar identificar pessoas transgênero '''[hiperligação em [Transgénero|transgênero - cami]'''] ou [[Não binárias|não-binárias]] '''[hiperligação em não-binárias - cami]''', que muitas vezes apresentam diferenças na expressão de gênero que não correspondem às representações [[Hegemonia|hegemônicas '''[Será que é possivel mudar a expressão "hegemônica" por alguma palavra que seja de maior conhecimento? A wiki é utilizada por diversas pessoas e nem todas podem entender o que hegemônica significa - cami]'''] usadas nos bancos de dados. A partir de 2018, começaram a ser divulgadas diversas pesquisas que debatem as taxas de erros em algoritmos de reconhecimento facial de acordo com gênero '''[hiperligação em [Género|gênero - cami]''']. Em 2019, uma pesquisa da [[Universidade do Colorado '''[hiperligação em universidade do colorado - cami]'''] revelou que as taxas de erro em algoritmos de reconhecimento facial '''[hiperligação[Sistema emde reconhecimento facial|reconhecimento - camifacial]]''' aumentam em até 40% ao tentar identificar pessoas trans, o que resulta em uma série de problemas e constrangimentos, especialmente em aeroportos e áreas de segurança.<ref name=":3" /><ref>{{Citar web|url=https://www1.folha.uol.com.br/tec/2024/05/reconhecimento-facial-erra-genero-de-pessoa-trans.shtml|titulo=Reconhecimento facial erra gênero de pessoa trans|data=2024-05-05|acessodata=2024-11-12|website=Folha de S.Paulo|lingua=pt-BR}}</ref>
=== Sugestões de anúncios racistas ===
Em 2013, a [[Google]] foi acusada de emitir sugestões de comentários racistas '''[hiperligação em racismo - cami[Racismo|racistas]]''' por uma professora da universidade de [[Harvard]]. A professora [[Latanya Sweeney]], após pesquisar seu próprio nome na ferramenta de busca, recebeu um anúncio de uma plataforma de checagem de [[histórico criminal]] com o seu nome nele. Após o ocorrido, Sweeney decidiu fazer uma pesquisa sobre a influência de aspectos raciais em plataformas de anúncio. Ela pesquisou mais de 2.000 nomes racialmente associados, que correspondiam a nomes que eram mais comumente dados a pessoas negras do que a pessoas brancas, e obteve o resultado que pesquisas de nomes associados a pessoas negras eram mais suscetíveis a serem bombardeados com anúncios de checagem de histórico criminal. Sweeney chamou atenção para o impacto que isso poderia causar aos afetados, se um empregador pesquisasse sobre o nome de um candidato de emprego negro e ele visse o resultado associado sugerindo que eles foram presos isso provavelmente prejudicaria o candidato e faria ele possivelmente perder a vaga de emprego. <ref name="latanya">[http://dl.acm.org/citation.cfm?id=2460278]Sweeney, Latanya. "Discrimination in online ad delivery." Queue 11.3 (2013): 10.</ref><ref name="googleadsracism">[http://www.huffpostbrasil.com/entry/online-racial-profiling_n_2622556]Google's Online Ad Results Guilty Of Racial Profiling, According To New Study - HuffPost, 2013</ref>
=== Análise de currículos discriminatória ===
Um jovem '''[Porque deve ser escrito que é um jovem? Isso trás alguma informação pertinente ao verbete? - cami]''' chamado Kyle Behm teve que abandonar seus estudos na universidade de[[Universidade Vanderbilt '''[hiperligação em |universidade de Vanderbilt - cami]'''] em [[Nashville]] por conta de um problema de saúde mental conhecido como [[desordem de bipolaridade]]. Após seu tratamento, ele estava pronto para ingressar em uma universidade e ficou sabendo de um trabalho de meio expediente em um supermercado recomendado por seu amigo. O seu amigo que estava de saída deste emprego indicou seu currículo para a vaga disponível que viria a estar disponível. Apesar da indicação, Kyle não foi chamado para a entrevista e ficou intrigado por causa disto, após perguntar ao seu amigo, ele descobriu que ele tinha sido marcado como alerta vermelho no teste de personalidade que ele havia feito para o emprego. O teste fazia parte de um software de seleção de empregados desenvolvido pela empresa Kronos. Após uma pesquisa de seu pai, Kyle descobriu que este teste possuía elementos de um mesmo teste que era o mesmo feito em hospitais para detecção de problemas de desordem de bipolaridade e por isso ele não estava sendo aprovado. Após o ocorrido, Kyle realizou uma aplicação para mais cinco empregos na área que ele morava e foi rejeitado nos cinco, mais tarde ele descobriu que estes outros empregos utilizavam o mesmo software para o processo seletivo de candidatos que o supermercado que ele enviou seu currículo em sua primeira tentativa, por este motivo Kyle não estava conseguindo ser selecionado para nenhum dos 6 empregos que ele realizou sua aplicação <ref name="mathdestruction2">[http://www.nationalbook.org/nba2016_nf_oneil-weapons-of-math-destruction.html#.WUn_BMaQzIU] Weapons of math destruction - A book by Cathy O'Neil, 2016</ref><ref name="workinglives">[https://www.theguardian.com/science/2016/sep/01/how-algorithms-rule-our-working-lives] How algorithms rule our working lives - The Guardian, 2016</ref>.
=== '''Prisões ilegais com base em reconhecimento facial''' ===
[[Ficheiro:Surveillance cameras Tom Lee Park Memphis TN 01.jpg|miniaturadaimagem|Câmeras de reconhecimento facial utilizadas na Segurança Pública que acarretaram prisões ilegais e discriminação algorítmica ]]
O documentário "Vigilance Capitalism" de Shoshana Zuboff '''[hiperligação em [Shoshana Zuboff - cami]'''] levanta questões sensíveis sobre o impacto do uso de tecnologias de vigilância, especialmente o reconhecimento facial '''[hiperligação[Sistema emde reconhecimento facial|reconhecimento - camifacial]]''', na sociedade e nos [[Direitos Humanos '''[hiperligação em direitos humanos|Direitos - camiHumanos]]'''. Um dos exemplos de impactos negativos e potencialmente graves é o caso de prisões ilegais resultantes de erros em sistemas de reconhecimento facial. No contexto real, casos nos EUA '''[hiperligação em[Estados Unidos|EUA - cami]'''] exemplificam esses problemas: em Detroit '''[hiperligação em [Detroit - cami]'''], um homem negro foi preso injustamente com base em um erro do sistema de reconhecimento facial, que o identificou erroneamente como suspeito em uma investigação. O sistema, alimentado por dados historicamente enviesados e com alta taxa de erro na identificação de pessoas negras, levou à prisão indevida e demonstra como a aplicação dessa tecnologia pode ser profundamente prejudicial, especialmente para as minorias.<ref>{{Citation|title=Shoshana Zuboff on surveillance capitalism {{!}} VPRO Documentary|url=https://www.youtube.com/watch?v=hIXhnWUmMvw|date=2019-12-20|accessdate=2024-11-12|last=vpro documentary}}</ref>
De acordo com um estudo do [[National Institute of Standards and Technology|National (NIST)Institute '''[hiperligaçãoof noStandards nomeand do institutoTechnology - cami(NIST)]]''' em 2019, algoritmos de reconhecimento facial apresentam uma taxa de falsos positivos cem vezes maior para pessoas negras. Essa tecnologia, amplamente adotada por forças de segurança, como nas polícias dos estados da Bahia '''[hiperligação em [Bahia - cami]'''] e do Rio de Janeiro '''[hiperligação em [Rio de Janeiro - cami]'''], já resultou em diversas prisões equivocadas, incluindo casos onde os erros provocaram a detenção de pessoas inocentes.<ref>{{Citar periódico |url=https://www.nist.gov/news-events/news/2019/12/nist-study-evaluates-effects-race-age-sex-face-recognition-software |título=NIST Study Evaluates Effects of Race, Age, Sex on Face Recognition Software |data=2019-12-19 |acessodata=2024-11-12 |periódico=NIST |lingua=en}}</ref>
Na Bahia, a [[Secretaria da Segurança Pública '''[hiperligaçãodo naEstado SSP-BAda -Bahia|Secretaria camida Segurança Pública]]''' (SSP-BA) utiliza reconhecimento facial desde 2018. No entanto, há registros de falhas significativas: durante o Carnaval de 2023, 77 pessoas foram presas com base em alertas gerados pelo sistema, e casos de erros não são divulgados publicamente, gerando questionamentos sobre transparência e equidade. Em um caso claro de violação aos direitos fundamentais do cidadão, um vigilante negro foi erroneamente detido e ficou preso por 26 dias, devido a uma falha no sistema que o associou a um crime cometido por outra pessoa. Este episódio não só expôs a vulnerabilidade dos sistemas de reconhecimento facial, mas também evidenciou os danos sociais e econômicos causados por essas prisões injustas, uma vez que ele perdeu uma oportunidade de emprego.<ref>{{Citar web|url=https://revistaafirmativa.com.br/reconhecimento-facial-prisoes-no-carnaval-reacendem-o-debate-de-uma-tecnologia-com-altas-taxas-de-erros/|titulo=Reconhecimento facial: prisões no Carnaval reacendem o debate de uma tecnologia com altas taxas de erros - Revista Afirmativa|data=2023-03-03|acessodata=2024-11-12|lingua=pt-BR}}</ref>
Apesar das falhas, a tecnologia continua sendo implementada no Brasil, como no plano de combate ao tráfico no Complexo da Maré '''[hiperligação em [Complexo da Maré - cami]'''], no Rio de Janeiro, que envolve reconhecimento facial e drones. Além disso, a Lei Geral do Esporte prevê o uso obrigatório de [[biometria]] facial '''[hiperligação em biometria - cami]''' em estádios com mais de 20 mil lugares até 2025. Esses sistemas violam direitos fundamentais ao submeter pessoas a uma vigilância intensiva e com falhas intrínsecas '''[Recomendo mudar a expressão "intrínseca" por outra que possa ser amplamente compreendida por todos os leitores - cami]'''características, como o direito à privacidade, à não discriminação e ao devido processo legal. Ela destaca que essas prisões injustas refletem como o uso não regulamentado e pouco supervisionado de algoritmos aumenta a marginalização de grupos vulneráveis e impõe consequências desproporcionais.<ref>{{Citar web|url=https://www.opanoptico.com.br/#publicacoes|titulo=O Panóptico - Monitor do reconhecimento facial no Brasil|acessodata=2024-11-12|website=www.opanoptico.com.br}}</ref>
=== '''Sistema de Anúncios no Google''' ===
Em 2020, a GLAAD, uma organização LGBT '''[hiperligação em [LGBT - cami]'''], identificou que o Google '''[hiperligação em [Google - cami]'''] bloqueia anúncios relacionados a temas LGBT em vídeos no [[YouTube '''[hiperligação em Youtube - cami]'''] sob a alegação de que eram "conteúdos adultos". Isso impacta a visibilidade de criadores de conteúdo LGBT e limita o acesso à monetização '''[hiperligação em [monetização - cami]'''], uma vez que esses conteúdos são considerados menos “apropriados” pelos algoritmos de publicidade '''[hiperligação em [publicidade - cami]'''].<ref>{{Citar web|url=https://glaad.org/releases/glaads-third-annual-social-media-safety-index-shows-all-five-major-social-media-platforms-fail-on-lgbtq-safety/|titulo=GLAAD’S THIRD ANNUAL SOCIAL MEDIA SAFETY INDEX SHOWS ALL FIVE MAJOR SOCIAL MEDIA PLATFORMS FAIL ON LGBTQ SAFETY AND UNDERSCORES HOW ONLINE HATE AND MISINFORMATION MANIFEST INTO REAL-WORLD HARM FOR LGBTQ PEOPLE {{!}} GLAAD|data=2023-06-15|acessodata=2024-11-12|website=glaad.org|lingua=en-US}}</ref>
=== '''Publicidade Digital e Bloqueio de Anúncios''' ===
== Algorithmic Justice League (AJL) - '''[Colocar em português o título - cami]''' ==
A liga de justiça algorítmica (em inglês '''Algorithmic Justice League [De acordo com o livro de estilos, o uso so negrito deve ser apenas na primeira vez que o título do verbete aparece, que não é este caso, recomendo retirar - cami]''') ou AJL, é uma iniciativa criada por [[Joy Buolamnwini]] que tem como objetivo o combate ao viés algorítmico. Ela já conta com diversos membros ao redor do mundo incluindo cidadãos, artistas, pesquisadores e ativistas. A liga da justiça algorítmica segue uma tríade de medidas para combater o viés algorítmico:<ref '''[Ref?name=":6">{{Citar web|url=https://www.ajl.org|titulo=Algorithmic Justice League - cami]'''Unmasking AI harms and biases|acessodata=2024-12-02|website=www.ajl.org|lingua=en}}</ref>
* Identificar o viés algorítmico ao desenvolver ferramentas para o teste de viés em algoritmos de aprendizagem de máquina. <ref '''[Ref?name=":6" - cami]'''/>
* Mitigar o viés algorítmico ao desenvolver métodos para inclusão em amplo espectro durante o design, desenvolvimento, teste e distribuição de softwares.<ref '''[Ref?name=":6" - cami]'''/>
* Chamar atenção através de materiais publicitários sobre o problema do viés algorítmico, o impacto causado por ele nos indivíduos afetados e outras informações importantes sobre este tema. <ref name="ajl">[http://www.ajlunited.org/] Algorithmic Justice League - 2016</ref><ref name="ajl2">[https://medium.com/mit-media-lab/the-algorithmic-justice-league-3cc4131c5148] The Algorithmic Justice League - Medium, 2016</ref>
== Estratégias de combate à discriminação algorítmica ==
O combate à discriminação '''[Hiperligação em [discriminação - cami]'''] algorítmica requer uma combinação de ações regulatórias, sociais e tecnológicas. Uma das principais iniciativas globais tem sido a pressão da sociedade civil, com campanhas como “Meu Rosto Não,” no Brasil, e “Big Brother Watch,” no Reino Unido '''[Hiperligação em [Reino Unido - cami]'''], que atuam diretamente contra o uso abusivo de tecnologias como o reconhecimento facial '''[Hiperligação[Sistema emde reconhecimento facial|reconhecimento - camifacial]]'''. Essas campanhas buscam conscientizar o público sobre os riscos de discriminação algorítmica e promovem a regulação mais estrita do uso de tecnologias que podem violar direitos fundamentais.<ref name=":4">{{Citar web|url=https://tiremeurostodasuamira.org.br|titulo=Home PT|acessodata=2024-11-12|website=#TireMeuRostoDaSuaMira|lingua=pt-BR}}</ref><ref name=":5">{{Citar web|url=https://bigbrotherwatch.org.uk|titulo=Big Brother Watch: Defending Civil Liberties, Protecting Privacy|acessodata=2024-11-12|website=Big Brother Watch: Defending Civil Liberties, Protecting Privacy|lingua=en-GB}}</ref>
O movimento “Meu Rosto Não” é uma resposta ao uso desenfreado de sistemas de reconhecimento facial no Brasil, em especial em contextos de segurança pública '''[Hiperligação em segurança publica - cami]''' e vigilância. A campanha denuncia como a tecnologia frequentemente erra em identificar pessoas negras, resultando em prisões ilegais e outros tipos de abuso. Seu objetivo é impedir que o reconhecimento facial seja utilizado sem a devida regulamentação e controle, especialmente diante da falta de transparência dos algoritmos utilizados e da ausência de uma fiscalização robusta que garanta o respeito aos direitos humanos.<ref name=":4" /> ▼
▲O movimento “Meu Rosto Não” é uma resposta ao uso desenfreado de sistemas de reconhecimento facial no Brasil, em especial em contextos de [[segurança pública '''[Hiperligação em segurança publica - cami] '''] e vigilância. A campanha denuncia como a tecnologia frequentemente erra em identificar pessoas negras, resultando em prisões ilegais e outros tipos de abuso. Seu objetivo é impedir que o reconhecimento facial seja utilizado sem a devida regulamentação e controle, especialmente diante da falta de transparência dos algoritmos utilizados e da ausência de uma fiscalização robusta que garanta o respeito aos direitos humanos.<ref name=":4" />
Já no Reino Unido, a organização “Big Brother Watch” também se posiciona fortemente contra a vigilância excessiva, destacando a forma como o reconhecimento facial falha de maneira desproporcional em identificar corretamente minorias étnicas '''[Hiperligação em étnicas - cami]''' e outros grupos vulneráveis. Ambas as campanhas têm sido fundamentais em abrir o debate público e em pressionar por regulação mais rígida.<ref name=":5" /> ▼
▲Já no Reino Unido, a organização “Big Brother Watch” também se posiciona fortemente contra a vigilância excessiva, destacando a forma como o reconhecimento facial falha de maneira desproporcional em identificar corretamente minorias étnicas '''[ Hiperligação em [étnicas - cami] '''] e outros grupos vulneráveis. Ambas as campanhas têm sido fundamentais em abrir o debate público e em pressionar por regulação mais rígida.<ref name=":5" /> <references />[[Categoria:Computação
Diante de todo o impacto individual e social que a discriminação algorítmica apresenta, é fundamental que sejam implementadas soluções eficazes '''[Nesse trecho, a escrita está parcial, não se deve colocar opinião pessoal em um verbete, pois não fica de acordo com a escrita enciclopédica - cami]'''. A regulamentação e a transparência no uso de algoritmos são essenciais '''[Quem disse que são essenciais? Para esse tipo de afirmação, deve-se sempre colocar uma referência ou citar alguém que disse isso - cami]''' para garantir que os sistemas desenvolvidos sejam justos e inclusivos. A realização de auditorias independentes para detectar e corrigir vieses algorítmicas é uma medida necessária '''[Quem disse que é necessário? - cami]''' para mitigar os danos. Além disso, a educação e a sensibilização de desenvolvedores e usuários sobre as implicações da discriminação algorítmica são cruciais para promover uma cultura de responsabilidade social. Por fim, o empoderamento das comunidades afetadas deve ser uma prioridade, garantindo que suas vozes sejam ouvidas no desenvolvimento de tecnologias que impactam suas vidas. <s>É necessário que abordemos esse problema de maneira crítica e abrangente, buscando garantir que a tecnologia sirva como um instrumento de inclusão e justiça, e não de exclusão e opressão.</s>'''[Esse trecho está muito parcial, lembre-se que a linguagem deve ser enciclopédica.'''<ref name="mathdestruction" />
<references />[[Categoria:Computação
[[Categoria:Governo por algoritmo
|