No intervalo de uma aula sobre o desenvolvimento da ciência de dados, falamos sobre a frequência com que os algoritmos “decidem” o que vamos ver. É como se tivéssemos transferido a responsabilidade das nossas decisões importantes para a Inteligência Artificial.
A IA tem, de fato, uma capacidade notável de analisar grandes volumes de dados e encontrar padrões. No entanto, precisamos lembrar que o controle final deve permanecer conosco. Ou vamos acabar nos acomodando.
Essa tendência de confiar cegamente na tecnologia pode refletir certa preguiça intelectual, que Kant já criticava em seu ensaio sobre o esclarecimento. O famoso “Sapere aude” (ouse saber) nos desafia a ter coragem de usar a nossa própria razão, sem a tutela de terceiros. Para Kant, a preguiça e a covardia impedem que as pessoas assumam a responsabilidade de pensar por si mesmas, algo que ressoa perfeitamente com o mundo digital de hoje.
Kant continua sendo fundamental para entendermos a importância do pensamento crítico, da autonomia intelectual e dos valores da modernidade. E, quando ignoramos isso, corremos o risco de normalizar a irresponsabilidade, confiando cegamente nas “decisões” dos algoritmos.
Fazendo paralelo com o carteiro Newman, da série “Seinfeld”: “quando você controla o correio, você controla… a informação!”, no mundo digital, os algoritmos são como o correio, influenciando o que vemos, lemos e até o que decidimos. Mas, se no mundo off-line já evitávamos conviver com pontos de vista divergentes, será que estamos agora nos escondendo atrás dos algoritmos para ficar em uma bolha?
A IA reflete as escolhas humanas: desde os dados que inserimos até os vieses que deixamos passar. Por isso, culpar a IA quando algo sai errado é ignorar a responsabilidade que continua sendo nossa. Não seria essa uma forma sutil de fugirmos do nosso papel ativo?
No final, a questão não é se a IA vai substituir a decisão humana, mas se estamos prontos para exercer o nosso poder de escolha e questionamento. Se não tomarmos cuidado, podemos estar diante de uma era em que não apenas os algoritmos “decidem”, mas também nos acomodamos na comodidade da irresponsabilidade.