Em uma época na qual softwares nos dizem no que devemos pensar, uma prática um pouco mais antiquada tem ganhado destaque no noticiário: o trabalho de um seleto grupo de enigmáticos indivíduos que decidem o que é e o que não é notícia.
Recentemente foi divulgado que o Facebook usa pessoas para selecionar quais assuntos são ou não vistos por seus usuários. Ironicamente, o problema da rede social é a falta de um algorítimo específico.
A argumentação mais polêmica que surgiu com a notícia foi a de que a seleção de “trending topics” do site teria um viés anti conservador. Ou seja, o Facebook esconderia notícias e opiniões mais conservadoras de maneira desproporcional, algo que a empresa negou veementemente.
Mas, segundo o site de tecnologia Gizmodo, o primeiro a noticiar o fato, o Facebook teria dois motivos para se envergonhar:
O primeiro é a presença de funcionários de carne e osso, o que prejudicaria a “ilusão de um processo de seleção de notícias mais isento”; o segundo é o fato de esses “curadores de notícias” aparentemente serem tratados como se fossem um software, operando fora de qualquer parâmetro editorial mais rigoroso e trabalhando para atingir metas quantitativas.
O 'empurrãozinho'
O 'empurrãozinho'
Questão ética à parte, a verdade é que a plataforma de compartilhamento de informações mais poderosa do mundo ainda não é capaz de selecionar, sem humanos, o que é visto por seus usuários.
Meios como o Facebook estão selecionando as notícias e as informações que consumimos sob títulos chamativos como “trending topics” ou critérios como “relevância”. Mas nós praticamente não sabemos como isso tudo é filtrado. Isso é importante porque mudanças sutis nas informações às quais somos expostos podem transformar nosso comportamento.
Para entender isso, pense nesse insight vindo da ciência comportamental e que tem sido amplamento adotado por governos e outras autoridades em todo o mundo: o “empurrãozinho”. Isso consiste em usar táticas discretas para nos incentivar a adotar um certo comportamento. Um exemplo conhecido é fazer da doação de órgãos algo obrigatório, a não ser que o indivíduo se manifeste contrariamente. O resultado é que mais pessoas acabam doando.
Críticos dessa abordagem argumentam que esse “empurrãozinho” está acabando com a decisão informada. “Em vez de explicar a questão e ajustar a política para o desejo da população, o ’empurrão’ ajusta a vontade da população à política que se quer implantar”, explica o escritor britânico Nick Harkaway em um artigo para o Instituto de Arte e Ideias.
“A escolha é uma habilidade, um hábito que precisa ser praticado para funcionar melhor.”
O fim da 'decisão informada'?
O fim da 'decisão informada'?
E como esses “empurrõezinhos” se aplicam no mundo digital? Quando navegamos na internet, enfrentamos escolhas continuamente – do que comprar ao que acreditar – e engenheiros e designers também podem sutilmente manejar nossas decisões nesse ponto.
Afinal, não é só o Facebook que está no jogo das seleções de informações. Sistemas de recomendação cada vez mais afiados estão na dianteira do atual boom da inteligência artificial, da tecnologia “vestível”e da chamada internet das coisas.
Do Google à Apple e à Amazon, o truque está em entregar ao usuário informações perfeitamente personalizadas. No entanto, o que está em jogo não é tanto a questão “homem X máquina”, mas sim a disputa “decisão informada X obediência influenciada”.
Quanto mais informações relevantes tivermos nas pontas dos dedos, melhor equipados estamos para tomar decisões. Isso é um dos princípios fundamentais da tecnologia da informação quando vista como uma força positiva.
O filósofo especializado em tecnologia Luciano Floridi, autor do livro The Fourth Revolution (“A Quarta Revolução”), usa a expressão “design pró-ético” para descrever esse processo: uma apresentação equilibrada de informações claras que nos impele a abordar conscientemente uma decisão importante, e nos responsabilizarmos por ela. Para Floridi, os sistemas de informação deveriam expandir – e não contrair – nosso engajamento ético, tentando resistir à tentação de nos influenciar.
'Cutucadas' invisíveis
'Cutucadas' invisíveis
Isso, no entanto, gera algumas tensões fundamentais: entre a conveniência e a deliberação; entre o que o usuário deseja e o que é melhor para ele; entre a transparência e o lado comercial. Quanto mais os “sistemas” souberem sobre você em comparação ao que você sabe sobre eles, há mais riscos de suas escolhas se tornarem apenas uma série de reações a “cutucadas” invisíveis.
E o equilíbrio entre o que está acontecendo no mundo e o que o usuário fica sabendo está cada dia mais pendendo para o lado da ignorância individual.
Não há um simples antídoto para essa situação, assim como nenhuma grande conspiração. De fato, a combinação bem realizada do uso de softwares com a curadoria humana está se tornado o único caminho pelo qual esperamos poder navegar os exabytes de dados que se acumulam pelo mundo.
Mas vale a pena lembrarmos que aqueles que projetam a tecnologia que utilizamos têm objetivos diferentes dos nossos – e que navegar com sucesso significa deixar de acreditar que existe uma saída para a parcialidade humana.
Fonte: BBC