Nesgo algorítmico

O nesgo algorítmico ocorre cando un sistema informático reflicte os valores dos humanos que están implicados na codificación e recolección de datos usados para adestrar o algoritmo. O nesgo algorítmico pódese atopar en todos lados, como nos resultados dos motores de procura ou nas redes sociais e poden ter un grande impacto en temas como a privacidade ou agravar nesgos sociais como os existentes respecto a razas, xénero, sexualidade ou etnias.

O estudo do nesgo algorítmico esta enfocado sobre todo en algoritmos que reflicten "discriminación sistemática e inxusta". Este tipo de nesgos empezaron a ser tidos en conta en marcos legais recentemente, como o Regulamento xeral de protección de datos xerais da Unión Europea en 2018. Tan pronto como os algoritmos expanden a súa capacidade de organizar a sociedade, a política, as institucións, e o comportamento, a socioloxía empezou a preocuparse coas maneiras en que os resultados non previstos e a manipulación de datos poden impactar no mundo físico. Como os algoritmos son a miúdo considerados neutros e sen nesgos, pode parecer que son mellores que os propios humanos, e nalgúns casos, relevar traballo nun algoritmo pode reducir o control humano sobre os resultados. Os nesgos poden repercutir nos algoritmos tendo como orixe influencias culturais, sociais, ou institucionais; debido a limitacións técnicas do seu deseño; ou por ser utilizado en contextos non esperados nun principio ou por usuarios que non se consideraron no deseño inicial do software.

Os nesgos algorítmicos afectaron a temas como os resultados das eleccións. Os problemas de comprensión, investigación, e descubrimento de nesgos nos algoritmos proveñen da natureza destes, xa que os propietarios non adoitan deixar acceder á súa implementación, e aínda que fose así, moitas veces son demasiado complexos para entender como funcionan. Ademais, os algoritmos poden cambiar, ou responder a diferentes entradas de maneiras que non poden ser previstas ou facilmente reproducidas para a súa análise. En moitos casos, mesmo dentro dun só sitio web ou aplicación, non hai un só algoritmo para examinar, se non un conxunto de procesos e entradas de datos interrelacionados.

Definicións editar

Os algoritmos son difíciles de definir, pero pódense entender como conxuntos de instrucións dentro dun computador que determinan como estes programas len, recollen, procesan, e analizan datos para xerar unha saída lexible.[1][2]Os computadores máis novos poden procesar millóns destas instrucións algorítmicas por segundo, o cal impulsou o deseño e adopción de tecnoloxías como machine learning e intelixencia artificial.[3] Analizando e procesando datos, os algoritmos son o corazón dos motores de procura, redes sociais, motores de recomendación, venda ao detalle en liña, publicidade en liña, e outros.[4][5][6][7][8][9]

A ciencia social contemporánea está preocupada polos procesos algorítmicos incluídos no hardware e software debido ao seu impacto político e social, e cuestionan a suposición de que un algoritmo é neutral.​[10][11] O termo nesgo algorítmico describe erros sistemáticos e repetidos que crean resultados inxustos, como dar privilexios a un grupo de usuarios por encima outros de forma arbitraria. Por exemplo, un algoritmo de puntuación de crédito pode negar un préstamo sen ser inxusto, se se fixa unicamente en criterios financeiros pertinentes. Se o algoritmo recomenda préstamos a un grupo de usuarios, pero nega préstamos a outro conxunto de usuarios case idénticos baseándose en criterios non relacionados, e se este comportamento pódese repetir en distintas ocasións, pódese dicir que é un algoritmo con nesgos. Estes nesgos poden ser intencionados ou involuntarios.

Métodos editar

O nesgo pode ser introducido a un algoritmo de varias maneiras. Durante a montaxe dunha base de datos, o dato ten que ser recolleito, dixitalizado, adaptado, e introducido segundo un deseño humano.[12] Logo, os programadores asignan prioridades, ou xerarquías, sobre como un programa avalía e ordena os datos. Isto require decisións humanas sobre como o dato é categorizado, e que dato é incluído ou descartado.[12] Algúns algoritmos recollen os seus propios datos baseados en criterios de selección humanos, os cales tamén poden reflectir rumbos dos deseñadores.[12] Outros algoritmos poden reforzar estereotipos e preferencias cando procesan e mostran datos relevantes para os humanos, por exemplo, ao seleccionar información baseada en eleccións anteriores dun usuario ou grupo de usuarios similares.[12]

Máis aló de reunir e procesar datos, os nesgos poden xurdir como resultado do deseño.​ Por exemplo, algoritmos que usan ordenación nos datos, aqueles que determinan a asignación de recursos ou escrutinio, ou os que clasifican e identifican usuarios, os cales poden discriminar a un grupo cando calculan o risco baseado en datos de usuarios similares. Doutra banda, os motores de recomendación que asocian aos usuarios con outros usuarios similares, ou que inferen diferentes trazos, poderían confiar en datos inexactos que reflicten estereotipos étnicos, de xénero, socio-económicos ou raciais. Outro exemplo xurdiría de determinar os criterios que din que incluír e excluír dos resultados. Estes criterios poderían provocar resultados inesperados nas procuras, como un software de recomendacións de compañías de voos que omite os voos de compañías que non se patrocinan igual que o resto.[13]​ Os algoritmos tamén poden mostrar un rumbo de incerteza, ofrecendo valoracións máis seguras cando os conxuntos de datos son máis grandes. Isto pode afectar a procesos algorítmicos que analizan mostras moi grandes, que fan ignórense os datos de poboacións pouco representadas.

Historia editar

Críticas iniciais editar

Os primeiros programas de computador foron deseñados para imitar o razoamento e as deducións humanas, e considerouse que funcionaban cando chegaron a reproducir esa lóxica humana de maneira exitosa e consistente. No seu libro de 1976 (Computer Power and Human Reason), o pioneiro da Intelixencia Artificial Joseph Weizenbaum suxeriu que o rumbo podería xurdir tanto dos datos utilizados nun programa como da forma en que se implementa un programa.[14]

Weizenbaum describiu os programas como secuencias de regras creadas por humanos para que as siga unha computadora. Ao seguir esas regras consistentemente, tales programas "encarnan a lei",[14] é dicir, fan cumprir unha forma específica de resolver problemas. As regras que segue unha computadora baséanse nas suposicións dun programador sobre como se poden resolver estes problemas. Isto significa que o código podería incorporar a imaxinación do programador e as súas ideas de como funciona o mundo, incluíndo os seus prexuízos e expectativas.[14] Mentres que un programa pode incorporar prexuízos desta maneira, Weizenbaum tamén sinalou que calquera dato alimentado a unha máquina reflicte adicionalmente os "procesos humanos de toma de decisións" a medida que se van seleccionando os datos.[14]

Finalmente, sinalou que as máquinas tamén poderían transmitir boa información con consecuencias imprevistas se os usuarios non teñen claro como interpretar os resultados.19​:65 Weizenbaum advertiu en contra de confiar nas decisións tomadas polos programas que o usuario non entende, comparando esa fe coa dun turista que pode atopar o seu camiño a unha habitación dun hotel virando á esquerda ou á dereita xogando a cara ou cruz. O turista non ten base para entender como ou por que chegou ao seu destino, e o feito de chegar non significa que o proceso sexa preciso ou confiable.[14]

Un dos primeiros exemplos de nesgo algorítmico resultou en que ata 60 mulleres e persoas pertencentes a minorías étnicas negáseselles a entrada á Escola de Medicina do Hospital St. George' s cada ano entre 1982 e 1986, baseado na implementación dun novo sistema de avaliación por computador que negaba a entrada a mulleres e homes con "nomes que soan estranxeiros" baseándose nas tendencias históricas das admisións.[15]

Críticas actuais e respostas editar

A pesar de que os algoritmos ben deseñados frecuentemente determinan resultados que son igualmente (ou máis) equitativos que as decisións de seres humanos, aínda ocorren casos de nesgos, e son difíciles de predicir e analizar.​ [16]A complexidade de analizar o nesgo algorítmico creceu á vez que a complexidade dos programas e o seu deseño. As decisións que fai un deseñador ou un equipo de deseñadores poden ser escurecidas entre as moitas partes de código creadas para un só programa; ao longo do tempo estas decisións e o seu impacto colectivo na saída do programa pódese esquecer.[13] En teoría, estes nesgos poden crear novos patróns de conduta, ou “ scripts”, en relación a tecnoloxías específicas segundo o código interactúa con outros elementos da sociedade.​[17] Os nesgos tamén poden afectar como a sociedade se forma ao redor de puntos de datos que os algoritmos requiren. Por exemplo, se os datos mostran un gran número de arrestos nunha zona particular, un algoritmo podería asignar máis patrullas de policía a esa zona, o que pode levar a máis arrestos. [18]

As decisións de programas algorítmicos poden verse como máis autoritativas que as decisións dos seres humanos que se supón que asisten​,[19] un proceso descrito polo escritor Clay Shirky como “autoridade algorítmica”. Shirky usa o termo para describir “a decisión de considerar como autoritativo un proceso non xestionado de extraer valor de fontes diversas e pouco fiables”, como os resultados de procura.[20] Esta neutralidade tamén pode malinterpretarse pola linguaxe usada polos expertos e os medios de comunicación cando os resultados son presentados ao público. Por exemplo, unha lista de noticias seleccionada e presentada como “de moda” ou “popular” pode ser creada baseándose en criterios bastante máis amplos que a súa popularidade.Pola súa conveniencia e autoridade, os algoritmos son teorizados como un medio de delegar a responsabilidade lonxe dos humanos.​ Isto pode ter o efecto de reducir opcións alternativas, compromisos ou flexibilidade. O sociólogo Scott Lash criticou os algoritmos como unha nova forma de “poder xenerativo”, dado que son un medio virtual de xerar fins reais. Onde previamente o comportamento humano xeraba datos para ser recolleitos e estudados, os algoritmos potentes poderían dar forma e definir os comportamentos humanos.[21]​ As preocupacións sobre o impacto dos algoritmos na sociedade levaron á creación de grupos de traballo en organizacións como Google e Microsoft, as cales crearon un grupo de traballo chamado Fairness, Accountability and Transparency in Machine Learning.[22]​ Entre algunhas ideas de Google inclúense comunidades que patrullan os resultados de algoritmos e votan por controlar ou restrinxir os resultados que consideran que teñen consecuencias negativas.[22]​ Nos últimos anos, o estudo de Fairness, Accountability and Transparency ( FAT) dos algoritmos xurdiu como unha área interdisciplinaria de investigación cunha conferencia anual chamada FAT.[23]

Impacto editar

Influencias comerciais editar

Os algoritmos corporativos poden estar nesgados para favorecer de maneira invisible os acordos financeiros ou os acordos entre empresas, sen o coñecemento dun usuario que poida confundir o algoritmo como imparcial. Por exemplo, American Airlines creou un algoritmo de procura de voos na década de 1980. O software presentaba unha gama de voos de varias aerolíneas aos clientes, pero sopesaba os factores que destacaban os seus propios voos, independentemente do prezo ou a conveniencia. En testemuño ante o Congreso dos Estados Unidos, o presidente da aerolínea declarou abertamente que o sistema foi creado coa intención de obter unha vantaxe competitiva a través dun trato preferente. [24]

Nun artigo de 1998 que describe a Google, demostrouse que os fundadores da empresa adoptaron unha política de transparencia nos resultados das procuras sobre a colocación remunerada, argumentando que "os motores de procura financiados por publicidade estarán intrinsecamente nesgados cara aos anunciantes e afastados das necesidades dos consumidores"​,[25] o que constituiría unha manipulación "invisible" do usuario.[24]

Comportamento de voto editar

Unha serie de estudos sobre votantes indecisos nos Estados Unidos e na India descubriron que os resultados dos motores de procura podían cambiar os resultados da votación en aproximadamente un 20%. Os investigadores concluíron que os candidatos "non ten maneira de competir" se un algoritmo, con ou sen intención, aumenta os resultados de procura de páxinas para un candidato rival.[26] Os usuarios de Facebook que viron mensaxes relacionadas coa votación tiñan máis probabilidades de votar. En 2010, unha proba aleatoria con usuarios de Facebook mostrou un aumento do 20% (340,000 votos) entre os usuarios que viron mensaxes que promovían o voto, así como imaxes dos seus amigos que votaran.[27]​ O experto en lexislación Jonathan Zittrain advirte que isto podería crear un " amaño dixital" nas eleccións, "a presentación selectiva de información por un intermediario para cumprir cos seus intereses, en lugar de servir aos usuarios", se se manipula intencionalmente.[28]

Discriminación de xénero editar

En 2016, descubriuse que a rede social de profesionais LinkedIn recomendaba variacións masculinas dos nomes das mulleres en resposta ás consultas de procura. O motor de procura non fixo recomendacións similares na procura de nomes masculinos. Por exemplo, "Andrea" mostraba unha mensaxe preguntando se os usuarios querían dicir "Andrew", pero as consultas por "Andrew" non preguntaban se os usuarios querían atopar a "Andrea". A compañía dixo que isto foi o resultado dunha análise das interaccións dos usuarios co buscador.[29]

En 2012, a franquía de tendas por departamentos Target foi citada por recompilar datos para inferir cando as mulleres estaban embarazadas, mesmo se non o anunciaban, e logo compartir esa información cos seus socios de mercadeo.[30]​ Debido a que os datos foran prognosticados, en lugar de ser observados ou reportados directamente, a compañía non tiña a obrigación legal de protexer a privacidade deses clientes. [30]

Os algoritmos de procura web tamén foron acusados de ser nesgados. Os resultados de Google poden dar prioridade ao contido pornográfico en termos de procura relacionados coa sexualidade, por exemplo, "lesbiana". Este nesgo esténdese ao motor de procura que mostra contido popular pero sexualizado en procuras neutrais. Por exemplo, os artigos " Top 25 Sexiest Women Athletes" (As 25 mulleres atletas máis sexys) aparecen como resultados de primeira páxina nas procuras de "mulleres atletas"[31]​ En 2017, Google axustou estes resultados xunto con outros relacionados con opinións racistas, abuso infantil e pornografía, e outros contidos perturbadores e ofensivos.[32] Outros exemplos inclúen a exhibición de traballos con mellor remuneración aos candidatos masculinos nos sitios web de procura de emprego.[33]​ En 2018, Amazon apagou un sistema que desenvolveu para filtrar as solicitudes de emprego cando se deron conta de que estaba nesgado en contra das mulleres.[34]

Discriminación racial e étnica editar

Os algoritmos criticáronse como método para tapar os prexuízos raciais á hora de decidir.[35] Debido a como certas razas e grupos étnicos foron tratados no pasado, a información actual pode conter certos rumbos ocultos. Por exemplo, xente de raza negra son máis proclives a recibir sentenzas máis longas que xente de raza branca, as cales cometeron o mesmo delito.[36][37]Isto pode supoñer que un sistema amplíe os nesgos orixinais nos datos.

Un exemplo é o uso de avaliacións de riscos en sentenzas penais nos Estados Unidos e audiencias de liberdade condicionada, onde aos xuíces presentábaselles mediante un algoritmo, o risco de que un preso reincidiese nun crime.​ O período que comprende 1920 e 1970, a nacionalidade do pai dun criminal tíñase en conta nas devanditas avaliacións de risco. A día de hoxe, estes resultados compártense con xuíces en Arizona, Colorado, Delaware, Kentucky, Louisiana, Oklahoma, Virginia, Washington e Wisconsin. Unha investigación independente por ProPublica, descubriu que estes resultados obtidos eran inexactos no 80% dos casos e desproporcionadamente nesgados por suxerir que persoas negras tiñan un 77% máis de probabilidades de reincidir que unha persoa branca.[38]

En 2015, Google desculpouse cando persoas negras se queixaron de que o algoritmo de identificación de imaxes na aplicación de Fotos identificábaos como gorilas.[39]​ En 2010, as cámaras Nikon foron criticadas debido a que o seu algoritmo de identificación preguntaba constantemente aos usuarios asiáticos se estaban parpadeando.[40]​ Estes exemplos son produto do rumbo no conxunto de datos biométricos.​[39] Devanditos datos biométricos obtéñense de aspectos do corpo, incluíndo as características raciais observadas, as cales poden entón transferirse en puntos de datos.[35] A tecnoloxía de recoñecemento de voz pode ter diferentes exactitudes dependendo do acento do usuario. Isto pódese deber á falta de datos de adestramento para usuarios do devandito acento.

Os datos biométricos sobre a raza poden tamén inferirse en lugar de observarse. Por exemplo, en 2012 un estudo demostrou que os nome asociados coas persoas negras eran máis proclives a devolver resultados de procura relacionados con arrestos, independentemente de se hai ou non un rexistro policial para individuos con ese nome.[41]

Un estudo sobre “Risk, Race, & Recidivism: Predictive Bias and Disparate Impact” alegou que existía unha probabilidade o dobre de maior (45% contra 23%) de que persoas negras fosen clasificadas de maior risco mesmo despois de permanecer durante un período de dous anos sen ningunha reincidencia documentada.[42]​ En 2019 un estudo de investigación revelou que un algoritmo de atención médica vendido por Optum favorecía a pacientes brancos por diante de pacientes negros, mesmo estes estando máis enfermos. O algoritmo #predicir canto custará o sistema de atención médica no futuro. Con todo, o custo non é neutral con respecto á raza, debido a que os pacientes negros incorreron en aproximadamente 1.800$ menos en custos médicos por ano que os pacientes brancos co mesmo número de problemas crónicos, o que levou ao algoritmo para cualificar a devanditos pacientes brancos a ter o mesmo risco de padecer certos problemas de saúde no futuro que os pacientes negros, os cales sufrían significativamente de máis enfermidades.[43]

Discurso de odio en liña editar

En 2017 un algoritmo de Facebook deseñado para eliminar o discurso de odio en liña en favor dos homes brancos fronte aos negros á hora de xulgar de maneira obxectiva o contido, segundo documentos internos de Facebook.[44]​ O algoritmo, o cal é unha combinación de programas informáticos e revisión humana, foi creado para protexer amplas categorías en lugar de subcategorías. Por exemplo, publicacións en contra dos “musulmáns” sería bloqueadas, mentres que aquelas que denunciaban aos “musulmáns radicais” si serían permitidas. Un resultado inesperado do algoritmo é que permite o discurso de odio contra os nenos negros, xa que denuncian a subcategoría de “nenos” dos negros, en lugar de “todos os negros”, mentres que “todos os homes brancos” daría lugar a un bloqueo, debido a que brancos e homes non son considerados unha subcategoría.66​ Ademais, atopouse que Facebook permitía a compradores de anuncios de dirixirse a “ antijudíos” como unha categoría de usuarios, que, segundo a compañía, foi resultado dos datos e os algoritmos usados. A compañía tamén permitiu aos compradores de anuncios impedir que os afroamericanos vexan anuncios de vivendas.[45]

Vixilancia editar

O software que conteñen as cámaras de vixilancia pode considerarse intrinsecamente político debido a que require algoritmos para distinguir comportamentos normais e anormais, e determinar quen pertence a certos lugares en certos momentos.[46]​ A habilidade dos devanditos algoritmos de recoñecer rostros dun espectro racial demostrouse que esta limitado pola diversidade racial das imaxes na súa base de datos de adestramento; Se a maioría das imaxes pertencen a unha raza ou xénero, o software é mellor á hora de recoñecer outros membros desa raza ou xénero.[47]​ Unha análise de software de 2002 utilizado para identificar individuos en imaxes de CCTV atopou varios exemplos de predisposición cando se executan coas bases de datos de delincuentes. O software identificaba con máis frecuencia aos homes que ás mulleres, ás persoas maiores máis que ás novas e a asiáticos, afroamericanos e outras razas con máis frecuencia que aos brancos.[18]​ Outros estudos sobre o software de recoñecementos atoparon o contrario cando se adestra con bases de datos de non criminais, sendo o software o menos preciso para identificar as mulleres de peles máis escuras.[48]

Discriminación sexual editar

En 2011, usuarios da aplicación de citas para homosexuais Grindr reportaron que o algoritmo de recomendación de Google Play estaba a vincular a Grindr con aplicacións deseñadas para atopar delincuentes sexuais, que segundo os críticos relacionaban incorrectamente a homosexualidade coa pedofilia. O escritor Mike Ananny criticou esta asociación en The Atlantic, argumentando que tales asociacións estigmatizaron aínda máis aos homes homosexuais.[49] En 2009, a compañía de comercio electrónico Amazon anulou 57.000 libros despois de que un cambio algorítmico expandise a súa lista negra de “contido para adultos” para incluír calquera libro que abordase temas de sexualidade ou gai, como a novela aclamada pola crítica Brokeback Mountain.[50]​ En 2019 descubriuse que, en Facebook, as procuras de “fotos das miñas amigas” lanzaron suxestións como “en bikini” ou “na praia”. En contraste, as procuras de “fotos dos meus amigos” non lanzaron resultados.[51]

Google Search editar

Estes resultados mostran que a sociedade no seu conxunto ten unha ampla gama de ideas sexistas sobre as mulleres. Aínda que os usuarios son os que xeran estes resultados na parte superior da páxina, Google non logrou eliminar os comentarios sexistas e racistas. En Algoritmos de Opresión, Safiya Noble sinala un exemplo cando realizas a procura “mozas negras”.[52] Unha muller estaba a buscar en Internet actividades para entreter a un preadolescente e aos seus curmáns da mesma idade. Despois de buscar “mozas negras”, imaxes de pornografía encheron a pantalla. Estes resultados son unha correlación directa cos vellos medios nunha nova arquitectura de medios. Debido ao algoritmo de Google, non pode borrar as páxinas a menos que se consideren ilegais.[52]

Notas editar

  1. "What is an Algorithm? – Culture Digitally" (en inglés). Arquivado dende o orixinal o 21 de abril de 2021. Consultado o 2021-04-21. 
  2. Cormen, Thomas H. (2009). Introduction to algorithms. Cambridge, Mass. : MIT Press. ISBN 978-0-262-03384-8. 
  3. Kitchin, Rob (2017-01-02). "Thinking critically about and researching algorithms". Information, Communication & Society 20 (1): 14–29. ISSN 1369-118X. doi:10.1080/1369118X.2016.1154087. 
  4. "Google's Search Algorithm and Ranking System - Google Search". www.google.com. Consultado o 2021-04-21. 
  5. Luckerson, Victor. "Here's How Your Facebook News Feed Actually Works". TIME.com. Consultado o 2021-04-21. 
  6. "The Science Behind the Netflix Algorithms That Decide What You'll Watch Next". Wired (en inglés). ISSN 1059-1028. Consultado o 2021-04-21. 
  7. Mattu, Julia Angwin,Surya. "Amazon Says It Puts Customers First. But Its Pricing Algorithm Doesn’t". ProPublica (en inglés). Consultado o 2021-04-21. 
  8. Livingstone, Rob. "The future of online advertising is big data and algorithms". The Conversation (en inglés). Consultado o 2021-04-21. 
  9. "How algorithms rule the world". the Guardian (en inglés). 2013-07-01. Consultado o 2021-04-21. 
  10. Seaver, Nick (2019-05-07). Knowing Algorithms. Princeton University Press. pp. 412–422. ISBN 978-0-691-19060-0. 
  11. Tewell, Eamon (2016). "Toward the Resistant Reading of Information: Google, Resistant Spectatorship, and Critical Information Literacy". portal: Libraries and the Academy (en inglés) 16 (2): 289–310. ISSN 1530-7131. doi:10.1353/pla.2016.0017. 
  12. 12,0 12,1 12,2 12,3 Media technologies : essays on communication, materiality, and society. Cambridge, Massachusetts. 2014. ISBN 978-0-262-31946-1. OCLC 872676110. 
  13. 13,0 13,1 Introna, Lucas D. (2011-11-01). "The Enframing of Code: Agency, Originality and the Plagiarist". Theory, Culture & Society (en inglés) 28 (6): 113–141. ISSN 0263-2764. doi:10.1177/0263276411418131. 
  14. 14,0 14,1 14,2 14,3 14,4 Weizenbaum, Joseph (1976). Computer power and human reason : from judgment to calculation. San Francisco, Cal. ISBN 0-7167-0464-1. OCLC 1527521. 
  15. Lowry, Stella; Macpherson, Gordon (1988-03-05). "A blot on the profession". Br Med J (Clin Res Ed) (en inglés) 296 (6623): 657–658. ISSN 0267-0623. PMC 2545288. PMID 3128356. doi:10.1136/bmj.296.6623.657. 
  16. "Want Less-Biased Decisions? Use Algorithms.". Harvard Business Review. 2018-07-26. ISSN 0017-8012. Consultado o 2021-04-21. 
  17. Bogost, Ian (2015-01-15). "The Cathedral of Computation". The Atlantic (en inglés). Consultado o 2021-04-21. 
  18. 18,0 18,1 Introna, Lucas; Wood, David (2004). "Picturing algorithmic surveillance: the politics of facial recognition systems". Surveillance & Society (en inglés) 2 (2/3): 177–198. 
  19. Introna, Lucas D. (2007-03-01). "Maintaining the reversibility of foldings: Making the ethics (politics) of information technology visible". Ethics and Information Technology (en inglés) 9 (1): 11–25. ISSN 1572-8439. doi:10.1007/s10676-006-9133-z. 
  20. "Clay Shirky: How cognitive surplus will change the world". PsycEXTRA Dataset. 2010. Consultado o 2021-04-21. 
  21. Lash, Scott (2007-05-XX). "Power after Hegemony: Cultural Studies in Mutation?". Theory, Culture & Society (en inglés) 24 (3): 55–78. ISSN 0263-2764. doi:10.1177/0263276407075956. 
  22. 22,0 22,1 Garcia, Megan (2016). "Racist in the Machine: The Disturbing Implications of Algorithmic Bias". World Policy Journal (en inglés) 33 (4): 111–117. ISSN 0740-2775. doi:10.1215/07402775-3813015. 
  23. "ACM FAccT - 2018 Information for Press". facctconference.org. Consultado o 2021-04-21. 
  24. 24,0 24,1 "Auditing Algorithms: Research Methods for Detecting Discriminationon Internet Platforms" (PDF). 
  25. "The Anatomy of a Search Engine". web.archive.org. 2019-07-02. Archived from the original on 02 de xullo de 2019. Consultado o 2021-04-23. 
  26. Epstein, Robert; Robertson, Ronald E. (2015-08-18). "The search engine manipulation effect (SEME) and its possible impact on the outcomes of elections". Proceedings of the National Academy of Sciences of the United States of America 112 (33): E4512–E4521. ISSN 0027-8424. PMC 4547273. PMID 26243876. doi:10.1073/pnas.1419828112. 
  27. Bond, Robert M.; Fariss, Christopher J.; Jones, Jason J.; Kramer, Adam D. I.; Marlow, Cameron; Settle, Jaime E.; Fowler, James H. (2012-09-13). "A 61-million-person experiment in social influence and political mobilization". Nature 489 (7415). ISSN 0028-0836. PMC 3834737. PMID 22972300. doi:10.1038/nature11421. 
  28. Zittrain, Jonathan (2014). "«Engineering an Election»" (PDF). Harvard Law Review Forum: 335. Arquivado dende o orixinal (PDF) o 04 de marzo de 2021. Consultado o 23 de abril de 2021. 
  29. "How LinkedIn’s search engine may reflect a gender bias". 
  30. 30,0 30,1 Crawford, Kate; Schultz, Jason (2014). «Big Data and Due Process: Toward a Framework to Redress Predictive Privacy Harms». Boston College Law Review 55 (1): 93-128.
  31. Noble, Safiya (2012). «Missed Connections: What Search Engines Say about Women». Bitch Magazine 12 (4): 37-41.
  32. Guynn, Jessica. "Google starts flagging offensive content in search results". USA TODAY (en inglés). Consultado o 2021-04-23. 
  33. "Probing the Dark Side of Google’s Ad-Targeting System". MIT Technology Review (en inglés). Consultado o 2021-04-23. 
  34. Dastin, Jeffrey (2018-10-10). "Amazon scraps secret AI recruiting tool that showed bias against women". Reuters (en inglés). Consultado o 2021-04-23. 
  35. 35,0 35,1 The new media of surveillance. Abingdon, Oxon: Routledge. 2009. ISBN 0-415-56812-9. OCLC 463396828. 
  36. Alexander, Rudolph; Gyamerah, Jacquelyn (1997-09-01). "Differential Punishing of African Americans and Whites Who Possess Drugs: A Just Policy or a Continuation of the Past?". Journal of Black Studies (en inglés) 28 (1): 97–111. ISSN 0021-9347. doi:10.1177/002193479702800106. 
  37. Petersilia, Joan (1985-01-01). "Racial Disparities in the Criminal Justice System: A Summary". Crime & Delinquency (en inglés) 31 (1): 15–34. ISSN 0011-1287. doi:10.1177/0011128785031001002. 
  38. Mattu, Julia Angwin,Jeff Larson,Lauren Kirchner,Surya. "Machine Bias". ProPublica (en inglés). Consultado o 2021-04-23. 
  39. 39,0 39,1 Guynn, Jessica. "Google Photos labeled black people 'gorillas'". USA TODAY (en inglés). Consultado o 2021-04-23. 
  40. Rose, Adam (2010-01-22). "Breaking News, Analysis, Politics, Blogs, News Photos, Video, Tech Reviews". Time (en inglés). ISSN 0040-781X. Consultado o 2021-04-23. 
  41. Sweeney, Latanya (2013-01-28). "Discrimination in Online Ad Delivery" (en inglés). Rochester, NY. 
  42. Skeem, Jennifer L.; Lowenkamp, Christopher (2016-06-14). "Risk, Race, & Recidivism: Predictive Bias and Disparate Impact" (en inglés). Rochester, NY. 
  43. "- The Washington Post". Washington Post (en inglés). Consultado o 2021-04-24. 
  44. Grassegger, Julia Angwin,Hannes. "Facebook’s Secret Censorship Rules Protect White Men From Hate Speech But Not Black Children". ProPublica (en inglés). Consultado o 2021-04-24. 
  45. Tobin, Julia Angwin,Madeleine Varner,Ariana. "Facebook Enabled Advertisers to Reach ‘Jew Haters’". ProPublica (en inglés). Consultado o 2021-04-24. 
  46. Graham, Stephen D.N. (2005-10-01). "Software-sorted geographies". Progress in Human Geography (en inglés) 29 (5): 562–580. ISSN 0309-1325. doi:10.1191/0309132505ph568oa. 
  47. Furl, Nicholas; Phillips, P. Jonathon; O'Toole, Alice J. (2002). "Face recognition algorithms and the other-race effect: computational mechanisms for a developmental contact hypothesis". Cognitive Science (en inglés) 26 (6): 797–815. ISSN 1551-6709. doi:10.1207/s15516709cog2606_4. 
  48. Buolamwini, Joy; Gebru, Timnit (2018). «Gender Shades: Intersectional Accuracy Disparities in Commercial Gender Classification». Proceedings of Machine Learning Research 81: 1 – via MLR Press.
  49. Ananny, Mike (2011-04-14). "The Curious Connection Between Apps for Gay Men and Sex Offenders". The Atlantic (en inglés). Consultado o 2021-04-24. 
  50. "Amazon Apologizes for “Ham-fisted Cataloging Error”". AllThingsD (en inglés). Consultado o 2021-04-24. 
  51. "Why Facebook Search Suggests ‘Photos of Female Friends in Bikinis’". Wired (en inglés). ISSN 1059-1028. Consultado o 2021-04-24. 
  52. 52,0 52,1 Noble, Safiya Umoja (2018). Algorithms of oppression : how search engines reinforce racism. New York. ISBN 978-1-4798-3724-3. OCLC 987591529. 

Véxase tamén editar

Outros artigos editar