A vigilância por meio de câmeras já tem sido uma realidade ampla há um punhado de anos, e essa parece ter sido uma guerra perdida para o vigilantismo. Um novo front, no entanto, parece se abrir diante das operações de inteligência artificial. Uma coisa, afinal, é ser filmado. Outra coisa bem diferente é ser reconhecido por ela.
Pensando nisso, pesquisadores da Northeastern University, do MIT e da IBM desenvolveram uma estampa que confunde o reconhecimento do corpo por IA.

A estampa dificulta o reconhecimento do corpo pela rede neural, que é um modelo/procedimento computacional usados para aprendizagem de máquina por meio de reconhecimento de padrões. Ao ser treinada para reconhecer objetos, uma rede neural lida com as bordas do que está analisando. A estampa, nesse caso, confunde esse reconhecimento, inviabilizando o processo de vigilância.
A rigor, os pesquisadores disseram à Wired que o objetivo final não é dificultar o trabalho das câmeras e do reconhecimento por IA, mas sim encontrar falhas nos procedimentos já usados.
Por outro lado, vale nota o trabalho de Adam Harvey. Em CV Dazzle, o artista propõe o uso de maquiagens e cortes de cabelo que a identificação individual por sistemas de vigilância. Novamente, o truque consiste em utilizar elementos irreconhecíveis ou difíceis de se agrupar por meio de inteligência artificial. Para um ser humano, é fácil entender que se trata de uma pessoa, mas computadores, diante desses ruídos visuais, não conseguem captar os elementos que formam um rosto de fato.
