{"id":6066,"date":"2024-11-14T10:52:24","date_gmt":"2024-11-14T13:52:24","guid":{"rendered":"https:\/\/elos.sites.uepg.br\/?p=6066"},"modified":"2024-11-14T10:52:24","modified_gmt":"2024-11-14T13:52:24","slug":"palestra-racismo-algoritmo-abre-o-labic-curitiba-e-debate-preconceitos-na-inteligencia-artificial","status":"publish","type":"post","link":"https:\/\/www2.uepg.br\/elos\/palestra-racismo-algoritmo-abre-o-labic-curitiba-e-debate-preconceitos-na-inteligencia-artificial\/","title":{"rendered":"Palestra \u201cRacismo Algor\u00edtmico\u201d abre o LABIC Curitiba e debate preconceitos na Intelig\u00eancia Artificial"},"content":{"rendered":"<p style=\"text-align: center\">A cientista Nina da Hora alerta a necessidade de justi\u00e7a algor\u00edtmica em sistemas de IA<\/p>\n<p style=\"text-align: left\"><span style=\"font-weight: 400\">Nesta quarta-feira (13), aconteceu a primeira palestra que comp\u00f5e o projeto Rede de Forma\u00e7\u00e3o em Cultura Digital &#8211; LABIC Curitiba. A palestra \u201cRacismo algor\u00edtmico\u201d foi ministrada pela cientista da computa\u00e7\u00e3o, Nina da Hora, que abordou como os algoritmos podem reproduzir e refor\u00e7ar preconceitos e desigualdades.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">Os algoritmos s\u00e3o um conjunto de instru\u00e7\u00f5es espec\u00edficas e organizadas que s\u00e3o seguidas sequencialmente para solucionar problemas ou executar atividades. Nas redes sociais, esses algoritmos funcionam como sistemas de recomenda\u00e7\u00e3o que utilizam Intelig\u00eancia Artificial (IA). A partir disso conseguem decidir quais conte\u00fados e p\u00e1ginas s\u00e3o exibidos em destaque na linha do tempo dos usu\u00e1rios.<\/span><br \/>\n<span style=\"font-weight: 400\">\u00a0Atualmente, a Intelig\u00eancia Artificial est\u00e1 cada vez mais presente no cotidiano, deste modo, impacta diretamente a vida das pessoas. De acordo com Nina, quando os algoritmos recebem o poder de decidir, a partir dos crit\u00e9rios de seus criadores, os potenciais discriminat\u00f3rios se multiplicam e passam a impactar negativamente minorias raciais em torno do mundo.\u00a0<\/span><br \/>\n<span style=\"font-weight: 400\">A cientista explica que o algoritmo n\u00e3o tem transpar\u00eancia e \u00e9 treinado com um conjunto de dados com rumos e inten\u00e7\u00f5es desconhecidas. \u201cParece que a m\u00e1quina est\u00e1 \u201cpensando\u201d mas h\u00e1 m\u00e3os humanas por tr\u00e1s de todo o processo\u201d.\u00a0 Segundo ela, os sistemas de IA, especialmente os que envolvem aprendizado profundo (deep learning) s\u00e3o opacos e dif\u00edceis de explicar.\u00a0<\/span><br \/>\n<span style=\"font-weight: 400\">\u201cComo n\u00f3s, pesquisadores, vamos explicar para o p\u00fablico negro que eles podem confiar nesses sistemas aut\u00f4nomos se n\u00f3s n\u00e3o conseguimos entender como funciona\u201d, questiona.\u00a0<\/span><br \/>\n<span style=\"font-weight: 400\">Ao se aprofundar no tema, Nina tamb\u00e9m investiga o racismo algor\u00edtmico no reconhecimento facial. Para ela, o reconhecimento facial foi constru\u00eddo com influ\u00eancia eugenista, por isso, cientistas da computa\u00e7\u00e3o precisam se preocupar com os aspectos sociais de suas cria\u00e7\u00f5es, dado que isso n\u00e3o \u00e9 um erro computacional, mas um problema que precisa ser debatido na computa\u00e7\u00e3o. \u201cPrecisamos pensar na justi\u00e7a algor\u00edtmica (sistemas justos que respeitem a diversidade social e cultural)\u00a0 para entender e mitigar os vieses, assim evitar a reprodu\u00e7\u00e3o de desigualdades sociais\u201d, defende.\u00a0<\/span><br \/>\n<span style=\"font-weight: 400\">O evento Rede de Forma\u00e7\u00e3o em Cultura Digital &#8211; LABIC Curitiba, ocorre dos dias 13 a 16 de novembro e desenvolve debates, oficinas e palestras sobre os impactos da tecnologia e inspira a\u00e7\u00f5es que tornem os sistemas digitais mais inclusivos e justos.<\/span><\/p>\n<p style=\"text-align: right\">Por Karen Stinsky<\/p>\n","protected":false},"excerpt":{"rendered":"<p>A cientista Nina da Hora alerta a necessidade de justi\u00e7a algor\u00edtmica em sistemas de IA Nesta quarta-feira (13), aconteceu a primeira palestra que comp\u00f5e o projeto Rede de Forma\u00e7\u00e3o em Cultura Digital &#8211; LABIC Curitiba. A palestra \u201cRacismo algor\u00edtmico\u201d foi ministrada pela cientista da computa\u00e7\u00e3o, Nina da Hora, que abordou como os algoritmos podem reproduzir&nbsp;&hellip;<\/p>\n","protected":false},"author":846,"featured_media":6068,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":[],"categories":[40,41,42,39],"tags":[231,44,56,58,45],"_links":{"self":[{"href":"https:\/\/www2.uepg.br\/elos\/wp-json\/wp\/v2\/posts\/6066"}],"collection":[{"href":"https:\/\/www2.uepg.br\/elos\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www2.uepg.br\/elos\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www2.uepg.br\/elos\/wp-json\/wp\/v2\/users\/846"}],"replies":[{"embeddable":true,"href":"https:\/\/www2.uepg.br\/elos\/wp-json\/wp\/v2\/comments?post=6066"}],"version-history":[{"count":0,"href":"https:\/\/www2.uepg.br\/elos\/wp-json\/wp\/v2\/posts\/6066\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www2.uepg.br\/elos\/wp-json\/"}],"wp:attachment":[{"href":"https:\/\/www2.uepg.br\/elos\/wp-json\/wp\/v2\/media?parent=6066"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www2.uepg.br\/elos\/wp-json\/wp\/v2\/categories?post=6066"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www2.uepg.br\/elos\/wp-json\/wp\/v2\/tags?post=6066"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}