Artigo

Podemos construir modelos de ML, mas não sabemos realmente como eles funcionam

Há 15 anos, uma empresa de tecnologia entregava PCs, sistemas operacionais ou software de processamento de texto. Hoje, as empresas de tecnologia estão no centro da maioria das principais companhias do mundo.

Veja o Facebook, Uber ou Airbnb, os quais alavancaram a tecnologia que mudou fundamentalmente a forma como as coisas são feitas.

O Machine Learning (ML) está no início da mesma jornada. Hoje, ele ainda é uma tecnologia emergente usada por um pequeno número de empresas de ponta para melhorar seus produtos através de insights mais precisos ou melhores experiências de usuários.

No entanto, como investidor, meu foco atual é encontrar empresas que ultrapassem isso, tornando o ML fundamental para os produtos que elas estão projetando e usando-o para resolver problemas significativos em áreas como: saúde, agricultura ou transporte.

Uma adoção verdadeiramente impactante do ML enfrentará muitos obstáculos, e uma das maiores questões com a qual as empresas precisam lidar hoje em dia é o fato dele ser uma “caixa preta”. “Ninguém realmente sabe como os algoritmos mais avançados fazem o que eles fazem. Isso pode ser um problema”, escreveu Will Knight recentemente.

O cerne desse problema é que, em muitos casos de uso, o entendimento de como a máquina alcança uma decisão é vista como fundamental para a sua adoção em massa.

Os veículos autônomos têm estado na linha de frente, tanto na inovação do ML quanto na discussão desta “caixa preta”. Quando um veículo autônomo se acidenta, os operadores e terceiros, como autoridades, seguradoras e meios de comunicação, trabalham intensamente para entender o porquê.

Conversando com uma empresa que trabalhou nisso recentemente, ficou claro que a inteligibilidade era vista como uma característica fundamental do produto, mesmo em detrimento da performance por métodos piores.

A explicação de decisões críticas de segurança não é o único exemplo relevante. Ela também pode ser igualmente aplicada para identificar tendências em todas as tarefas de uma IA destinadas a tomar decisões que afetem indivíduos, como a aprovação de um pedido de empréstimo ou o diagnóstico médico feito por IA.

Por isso, vejo essa adoção mais ampla de IA/ML em duas ondas.

Na primeira onda, os sistemas de ML terão que ser adaptados ou limitados, a fim de fornecer explicações mais claras sobre suas decisões em detrimento da performance. Isso permitirá aos stakeholders a chance de entender melhor as implicações da tecnologia e desenvolver e adaptar seus processos conforme esta.

Na segunda onda, apesar de distante, chegamos a um ponto em que colocamos maior confiança nesses sistemas e concordamos que o benefício de executá-los em pleno poder supera os riscos de não serem capazes de explicar por que tomam determinadas decisões.

Joel Dudley, do Monte Sinai, usou o Deep Learning no banco de dados de registros dos pacientes do hospital e descobriu que suas previsões de doença eram “muito melhores” do que as ferramentas existentes. Will Knight escreve que Dudley tristemente diz: “Nós podemos construir esses modelos, mas não sabemos como eles funcionam”. Esse tipo de potencial é difícil de ignorar.

– Ben Blume, investidor profundamente focado em tecnologia no VC Atomico Internacional. Este artigo foi publicado pela primeira vez na newsletter “Machine Learnings”, em 21 de maio de 2017.

Fonte: https://machinelearnings.co/we-can-build-these-models-but-we-dont-know-how-they-work-ec1e2e295739

Ver mais posts

Artigos relacionados

Close