Gizmodo



Inteligência Artificial

Este mês o governo canadense lançará um programa piloto para pesquisar e prever taxas de suicídio pelo país com o auxílio de inteligência artificial. O programa avaliará postagens nas redes sociais dos usuários canadenses “para identificar padrões associados com usuários que discutem comportamentos relacionados ao suicídio”,  de acordo com informações de um contrato recentemente divulgado.

Documentário que conta saga de vitória de IA contra melhor jogador de Go do mundo está na Netflix
Pesquisadores usam “Up – Altas Aventuras” para ensinar emoções a inteligência artificial

A Agência de Saúde Pública do Canadá planeja trabalhar com uma companhia de inteligência artificial chamada Advanced Symbolics para vasculhar mais de 160 mil contas canadenses nas redes sociais, de acordo com a CBC, mas a companhia contratada diz que apenas usará dados públicos e anônimos.

O site da Advanced Symbolics afirma não utilizar “conversas privadas” e em vez disso faz uso de “informações públicas disponíveis e compartilhadas em redes sociais com o consenso dos indivíduos”. A Advanced Symbolics também disse a CBC que não investiga casos isolados.

Detalhes específicos de como a tecnologia da empresa funcionará no piloto são escassos. De acordo com o contrato, a companhia usará sua pesquisa para informar a Agência de Saúde Pública do Canadá sobre discussões relacionadas a suicídio por idade e gênero, além de “mudanças nos padrões e riscos existentes e fatores de proteção”. O contrato sugere que a Advanced Symbolics pode de alguma maneira detectar “idealizações (pensamentos), comportamentos (tentativas de suicídio, automutilação, suicídio) e comunicações (ameaças de suicídio, planos)”.

“Seria estranho se construíssemos algo que monitora tudo o que todo mundo está dizendo e então o governo entra em contato contigo e diz ‘Oi, a inteligência artificial do nosso computador está dizendo que você pode cometer suicídio’”, disse Kenton White, cientista responsável na Advanced Symbolics, ao CBC. Entramos em contato com a companhia para entender melhor como a tecnologia funciona e como ela usará os dados coletados durante o piloto.

O projeto piloto está programado para iniciar neste mês e terminar em junho. O governo canadense espera gastar US$ 25 mil no programa, e pode estendê-lo por até cinco anos, completando a pesquisa em junho de 2023 com o gasto total de US$ 400 mil.

Cerca de 11 pessoas cometem suicídio diariamente no Canadá, de acordo com a Associação Canadense para a Prevenção de Suicídio.

O governo canadense não é o primeiro a usar inteligência artificial para identificar e prevenir suicídio. O Facebook disse em novembro do ano passado que iria expandir o seu próprio programa de prevenção ao suicídio que também é baseado em inteligência artificial “usando padrões de reconhecimento para detectar postagens ou vídeos ao vivo onde alguém possa expressar pensamentos suicidas, e para responder a eles de maneira mais rápida”.

A principal diferença entre o programa do Facebook e da Advanced Symbolics é que o segundo não tenta identificar casos individuais em uma plataforma, mas, sim, identificar tendências suicidas por região. A companhia pode alertar o governo para o caso de um aumento no número de suicídios até três meses antes da ocorrência. É importante notar que algoritmos não são livres de resultados tendenciosos, e eles possuem um histórico um tanto controverso. Mas se o governo puder controlar um esperado aumento na taxa de suicídios, então ele poderia, por exemplo, aumentar a presença de profissionais da saúde mental em certas regiões ou para uma demografia especifica.

Além do Canadá, outras entidades governamentais têm mostrado interesse em utilizar algoritmos para lidar com problemas sociais. A Casa Branca pediu a cientistas e tecnólogos em setembro de 2015 que auxiliassem a prevenção de suicídios, além também de sediar hackthons voltados para a saúde mental em todo o país desde dezembro do mesmo ano. E neste ano, a Polícia Metropolitana de Londres anunciou estar trabalhando com “fornecedores do Vale do Silício” para utilizar aprendizado da máquina para identificar imagens de abuso infantil em dispositivos eletrônicos. Mas, como já vimos anteriormente, inteligência artificial está longe de ser perfeita, e a polícia informou que o sistema continuava a confundir fotos de corpos nus com fotos de desertos.

[CBC]




VOLTAR AO TOPO