Como o IBM Watson pode extrair conhecimento dos TED Talks

Como o IBM Watson pode extrair conhecimento dos TED Talks

Mesmo para os humanos, encontrar respostas para perguntas que envolvem conceitos de alto nível é, às vezes, difícil. Então, como podemos usar a inteligência artificial para pesquisar 8.000 horas de conteúdo de vídeo e retornar respostas significativas? 

Os usuários poderão pesquisar em toda a biblioteca TED Talks fazendo perguntas sobre ideias – e, em seguida, ir diretamente para os segmentos dentro de cada vídeo em que as ideias são discutidas. Ao analisar conceitos em cada vídeo, o Watson pode organizar uma lista de reprodução de videoclipes curtos que oferecem muitas perspectivas sobre a pergunta do usuário. Abaixo de cada clipe há uma linha do tempo que mostra mais conceitos que o Watson encontrou na palestra, para que os usuários possam “fazer um túnel lateralmente” para seguir outro interesse contextualmente relacionado, permitindo uma exploração casual. Os usuários podem continuar pulando de um vídeo para outro, usando conceitos como uma ponte para outros tópicos que possam interessá-los.

Você pode realizar esse tipo de pesquisa através do site: http://watson.ted.com

O projeto saiu de uma breve reunião no corredor em um evento TED  e foi desenvolvido por uma equipe em cerca de oito semanas. É um ótimo exemplo da rapidez com que os desenvolvedores podem criar novos aplicativos na plataforma aberta do Watson.

Aqui, Jeffrey Coveyduc, IBM, e Emily McManus do TED.com, discutem como uma idéia simples se transformou em um protótipo de uma nova maneira de encontrar insights em dados de vídeo não estruturados.

Emily: No inverno passado, em uma conferência do Instituto TED em Berlim , assisti a Dario Gil, do grupo de pesquisa da IBM, falar sobre Watson e computação cognitiva , e adorei sua visão de como computadores e humanos poderiam trabalhar juntos para responder perguntas difíceis usando a análise de linguagem natural. Comecei a pensar: que tipos de perguntas novas poderíamos responder a partir do TED Talks, se as alimentássemos com o Watson? Temos um conjunto de quase 2.000 vídeos cobrindo um conjunto bastante amplo de conhecimento humano. E às vezes é difícil saber o que está lá – temos bons metadados, mas as pessoas pensam em linguagem, não em metadados. Então, perguntei a Dario nos bastidores: O que o Watson poderia fazer com nossos vídeos e transcrições do TED Talks?

Jeff: Dario veio até mim para discutir. Como fãs em comum da TED Talks, nós dois sabíamos que havia uma enorme quantidade de informações e informações interessantes contidas nesses vídeos. Mas não foi apenas o conteúdo – é o fato de que a missão do TED é espalhar idéias, e aqui na IBM estamos usando o Watson para ajudar a extrair o conhecimento que é relevante para você e que antes era difícil de acessar. Parecia um ótimo jogo.

Emily: TED Talks tem uma API para ajudar os desenvolvedores a acessar nossos vídeos e transcrições, mas para acelerar a entrega de todo esse material, já que estávamos em Nova York, Aja Bogdanoff da minha equipe jogou todos os 1.900 vídeos, transcrições e metadados sobre um disco rígido. Me senti muito Missão: Impossível . Eu disse à equipe da IBM: “Vou entregar o pacote como se fôssemos ambos espiões.”

Jeff: Nós nos referimos ao disco rígido como “o futebol” e mantivemos o projeto em sigilo, apelidando-o de “Esquilo Secreto”. Entramos no esforço sem um fim em mente, sem saber para onde a aventura nos levaria. Isso era importante, porque a equipe – cerca de uma dúzia de especialistas em processamento de linguagem natural, visualização, análise de vídeo, reconhecimento de fala e artistas da mídia – precisava da liberdade de ser criativo, experimentar, errar ao explorar o que era possível.

A equipe usou vários serviços Watson de nossa nuvem de desenvolvedor, como Concept Insights , Personality Insights , Concept Tagging e Entity Identification do AlchemyAPI , juntamente com alguns dos principais recursos do Watson, como processamento de linguagem natural e sua capacidade de compreender o contexto em perguntas.

No final de nossa primeira onda de atividades, Watson reuniu todos os vídeos do TED e as idéias dentro deles para uma visualização do universo TED. Dentro desse universo, as ideias começaram a se agrupar em bairros – e descobrimos que a relação desses bairros era interessante por si só, oferecendo-nos novos insights sobre as palestras do TED como um todo. Por exemplo, as palestras de música estão localizadas perto daquelas focadas no Tempo e na Mente.

Emily: Quatro semanas atrás, recebi um telefonema de Dario. Ele disse que tinha algo excitante para contar ao meu time e poderíamos ir ao Astor Place no dia seguinte.

Ele demonstrou o Secret Squirrel e como o Watson tinha, em essência, indexado todas as nossas TED Talks – e agora era capaz de mostrar um universo de conceitos extraídos de vídeos do TED, incluindo alguns tópicos que não foram abordados em nossos metadados atuais. (Quem sabia que nós tivemos tantas palestras que mencionaram a Segunda Guerra Mundial?)

Em seguida, eles nos mostraram como um usuário poderia fazer uma pergunta ao Watson em linguagem natural e obter uma série de clipes curtos de várias palestras, criando uma resposta complexa e com nuances para uma grande questão. Sabemos que é assim que nossos usuários querem falar sobre conversas – quando alguém está tentando lembrar de um vídeo que viram uma vez, eles não se lembram de palavras-chave, lembram-se de ideias.

Jeff: Aplicar o Watson dessa maneira nos mostrou como podemos facilitar a exploração de diversos conhecimentos e pontos de vista em conteúdo de vídeo. Por exemplo, pense em todo o conteúdo de jornalismo de TV e MOOCs da universidade produzido.

No site do TED.com, os visitantes podem pesquisar as palestras do TED por palavras-chave e outros metadados. Juntos, mostramos que, adicionando o Watson, é possível ir além das palavras-chave e extrair a essência de cada palestra, identificando as idéias e os conceitos dentro dela. Isso permitirá que as pessoas descubram as informações de que gostam. Este projeto é focado em vídeos do TED, mas a ideia mais ampla de análise de vídeo é um grande negócio. Mais de 95% do material digital do mundo é vídeo. Ao contrário da pesquisa de texto tradicional, é difícil e demorado encontrar determinadas fatias de informação em conteúdo de vídeo.

Sabemos que alguns dos grandes avanços produzidos pelos seres humanos ocorrem na interseção de disciplinas e na colisão de idéias. Achamos que este projeto está ajudando a mostrar que o vasto depósito de vídeos que a sociedade está produzindo, uma vez desbloqueado, pode se tornar uma fonte compartilhada de criatividade e inovação.

A criadora do Voicers Ligia Zotini fará parte do time dos spekears do Ted Talk em maio de 2019. Enquanto esse dia não chega você pode acompanhar alguns voicers que já passaram por esse palco:

Kim Riccelli
Gustavo Tanaka
Natasha Bontempi
Gil Giardelli

Leia a cobertura da Fast Company sobre o anúncio »

Esta postagem também aparecerá no blog do Watson. Leia muito mais sobre o sistema de computação cognitiva da IBM »

Fonte: Ted Bolg

Comentários Via Facebook
compartilhe

Solange Luz

Ela é a construção de todos que conheceu e de tudo que viveu, especialista em sonhar acordada e falar consigo mesma. No Voicers é a CCC (Content, Creator & Curator), carinhosamente conhecida como Queen of Words.