Health

Perguntas e respostas: AI for Good Lab da Microsoft sobre preconceitos e regulamentação de IA

A cabeça do MicrosoftO laboratório AI for Good da empresa, Juan Lavista Ferres, é coautor de um livro que fornece exemplos do mundo real de como a inteligência artificial pode ser usada de forma responsável para afetar positivamente a humanidade.

Ferres sentou-se com MobiHealthNotícias para discutir seu novo livrocomo mitigar preconceitos na entrada de dados na IA e recomendações para reguladores que criam regras em torno do uso de IA na saúde.

Notícias MobiHealth: Você pode contar aos nossos leitores sobre o laboratório AI for Good da Microsoft?

Juan Lavista Ferres: A iniciativa é totalmente filantrópica, onde fazemos parcerias com organizações de todo o mundo e fornecemos-lhes as nossas competências em IA, a nossa tecnologia de IA, o nosso conhecimento em IA e eles fornecem especialistas no assunto.

Criamos equipes combinando esses dois esforços e, coletivamente, os ajudamos a resolver seus problemas. Isto é algo extremamente importante porque vimos que a IA pode ajudar muitas destas organizações e muitos destes problemas e, infelizmente, há uma grande lacuna nas competências de IA, especialmente com organizações sem fins lucrativos ou mesmo organizações governamentais que estão a trabalhar nestes projetos. Normalmente, eles não têm capacidade ou estrutura para contratar ou reter o talento que é necessário, e é por isso que decidimos fazer um investimento na nossa perspectiva, um investimento filantrópico para ajudar o mundo com esses problemas.

Temos um laboratório aqui em Redmond. Temos um laboratório em Nova York. Temos um laboratório em Nairobi. Temos pessoas também no Uruguai. Temos pós-doutorados na Colômbia e trabalhamos em muitas áreas, sendo a saúde uma delas e uma área importante para nós – uma área muito importante para nós. Trabalhamos muito com imagens médicas, como tomografias, raios X, áreas onde temos muitos dados não estruturados também através de texto, por exemplo. Podemos usar a IA para ajudar esses médicos a aprender mais ou a compreender melhor os problemas.

MHN: O que você está fazendo para garantir que a IA não cause mais danos do que benefícios, especialmente quando se trata de preconceitos inerentes aos dados?

Ferros: Isso é algo que está no nosso DNA. É fundamental para a Microsoft. Mesmo antes de a IA se tornar uma tendência nos últimos dois anos, a Microsoft tem investido fortemente em áreas como a nossa IA responsável. Cada projeto que temos passa por um trabalho muito minucioso de IA responsável. É também por isso que é tão fundamental para nós que nunca trabalharemos num projeto se não tivermos um especialista no assunto do outro lado. E não apenas qualquer especialista no assunto, tentamos escolher o melhor. Por exemplo, estamos trabalhando com câncer de pâncreas e com a Universidade Johns Hopkins. Estes são os melhores médicos do mundo que trabalham com câncer.

A razão pela qual é tão crítico, especialmente quando se trata do que você mencionou, é porque esses especialistas são os que têm uma melhor compreensão da recolha de dados e de quaisquer potenciais preconceitos. Mas mesmo assim, analisamos a IA responsável. Estamos garantindo que os dados sejam representativos. Acabamos de publicar um livro sobre isso.

MHN: Sim. Conte-me sobre o livro.

Ferros: Falo muito nos dois primeiros capítulos, especificamente sobre os potenciais preconceitos e o risco desses preconceitos, e há muitos, infelizmente, maus exemplos para a sociedade, especialmente em áreas como a detecção do cancro da pele. Muitos dos modelos em câncer de pele foram treinados na pele de pessoas brancas porque geralmente essa é a população que tem mais acesso aos médicos, essa é a população que normalmente é alvo de câncer de pele e é por isso que você tem um número sub-representativo de pessoas com essas questões.

Então, fazemos uma revisão muito completa. A Microsoft tem liderado o caminho, se você me perguntar, em IA responsável. Temos nossa diretora responsável de IA na Microsoft, Natasha Crampton.

Além disso, somos uma organização de pesquisa, portanto publicaremos os resultados. Passaremos pela revisão por pares para ter certeza de que não estamos perdendo nada nisso e, no final, nossos parceiros serão os que entenderão a tecnologia.

Nosso trabalho é garantir que eles entendam todos esses riscos e possíveis preconceitos.

MHN: Você mencionou que os primeiros capítulos discutem a questão de possíveis distorções nos dados. O que o resto do livro aborda?

Ferros: Então, o livro tem uns 30 capítulos. Cada capítulo é um estudo de caso, e você tem estudos de caso em sustentabilidade e estudos de caso em saúde. Estes são estudos de caso reais nos quais trabalhamos com parceiros. Mas nos três primeiros capítulos faço uma boa revisão de alguns dos riscos potenciais e tento explicá-los de uma forma fácil para as pessoas entenderem. Eu diria que muitas pessoas já ouviram falar de preconceitos e problemas de recolha de dados, mas por vezes é difícil para as pessoas perceberem como é fácil que isso aconteça.

Também precisamos entender que mesmo de uma perspectiva tendenciosa, o fato de você poder prever algo não significa necessariamente que seja causal. O poder preditivo não implica causalidade e muitas vezes as pessoas entendem e repetem que a correlação não implica causalidade; às vezes as pessoas não entendem necessariamente que o poder preditivo também não implica causalidade e mesmo a IA explicável também não implica causalidade. Isso é muito importante para nós. Esses são alguns dos exemplos que abordo no livro.

MHN: Que recomendações você tem para os reguladores governamentais em relação à criação de regras para implementação de IA na saúde?

Ferros: Não sou a pessoa certa para falar sobre a regulamentação em si, mas posso dizer-lhe que, em geral, tenho uma compreensão muito boa de duas coisas.

Primeiro, o que é IA e o que não é? Qual é o poder da IA? Qual não é o poder da IA? Acho que ter um bom conhecimento da tecnologia sempre o ajudará a tomar melhores decisões. Acreditamos que a tecnologia, qualquer tecnologia, pode ser usada para o bem e para o mal e, em muitos aspectos, é nossa responsabilidade social garantir que usamos a tecnologia da melhor maneira, maximizando a probabilidade de que isso aconteça. ser usado para o bem e minimizando os fatores de risco.

Então, dessa perspectiva, acho que há muito trabalho para garantir que as pessoas entendam a tecnologia. Essa é a regra número um.

Ouça, nós, como sociedade, precisamos ter uma melhor compreensão da tecnologia. E o que vemos e o que vejo pessoalmente é que tem um potencial enorme. Precisamos ter certeza de que maximizamos o potencial, mas também de que o estamos usando corretamente. E isso exige que governos, organizações, sector privado e organizações sem fins lucrativos comecem primeiro por compreender a tecnologia, compreender os riscos e trabalhar em conjunto para minimizar esses riscos potenciais.

Source

Related Articles

Leave a Reply

Your email address will not be published. Required fields are marked *

Back to top button