Pular para o playerIr para o conteúdo principalPular para o rodapé
  • anteontem
Transcrição
00:00Terça-feira movimentada no mercado de tecnologia.
00:05Chegou a hora de repercutir vários assuntos na coluna desta semana.
00:10Fala aí!
00:17E vamos receber ao vivo o Roberto Pena Spinelli,
00:22que é físico pela USP, colunista aqui do Olhar Digital.
00:25Vamos lá? Deixa eu colocar o Pena na nossa tela.
00:29Olá, Pena. Muito boa noite mais uma vez.
00:33Muito bem-vindo ao Olhar Digital News.
00:36Tudo bem, Marisa? Olá, pessoal. Vamos nessa.
00:40Vamos que temos vários assuntos hoje para tratar por aqui.
00:44Pena, como sempre, não é? Como sempre, temos temas quentíssimos e sempre atuais.
00:49Vamos começar com os anúncios feitos pela Meta no dia de hoje.
00:53A Big Tech realizou a Lhama Com, que é uma conferência voltada para desenvolvedores de inteligência artificial,
01:01na tarde desta terça-feira.
01:04E uma das novidades anunciadas no evento é o Lhama API,
01:08que é uma plataforma que permite que desenvolvedores usem os modelos Lhama
01:13para criar as suas próprias tecnologias e serviços.
01:17O CEO Mark Zuckerberg, inclusive, participou do evento.
01:21Eu queria que você comentasse para a gente, Pena, qual é o peso dessa novidade nesse atual momento do mercado.
01:30Então, Marisa, foi muito interessante que a Meta, então,
01:34que é detentora desse modelo de código aberto, Lhama,
01:38que eles compartilham, então, o código livremente para que as pessoas possam rodar nos seus dispositivos diretamente.
01:46Diferente das outras empresas que o código é fechado e roda na nuvem e você só acessa via API.
01:52Mas o que eles perceberam?
01:53Eles perceberam que a API, embora limite também essa forma como você acessa,
01:59também facilita, porque não deixa de ser um jeito fácil de qualquer pessoa no mundo
02:04sair programando, porque já usa na nuvem, não precisa ter uma máquina rodando local,
02:10não precisa configurar um monte de coisa.
02:12Então, eles perceberam que talvez também fosse legal desenvolver esse acesso por API,
02:18por programação direta, rodando esses modelos em outro lugar.
02:22Então, eles estão lançando justamente essa Meta API,
02:25essa interface do Lhama, na verdade chama Lhama API,
02:28que é uma maneira das pessoas testarem os modelos Lhama,
02:32os desenvolvedores, mesmo sem ter já o hardware necessário,
02:37o que eu achei muito legal.
02:39Eu acho que, nesse sentido, é certeiro, é uma coisa boa,
02:42porque existe uma interface que é o Playground,
02:45onde você pode usar qualquer um desses modelos da Meta,
02:50o Lhama, o Lhama 4, por exemplo, que acabou de sair,
02:53testar os diversos usos, geração de imagem e tudo mais,
02:56antes de começar a desenvolver as suas aplicações.
02:59E outra coisa que eles fizeram é permitir que essa API,
03:03ela também seja compatível com a da OpenAI.
03:06Então, muitos desenvolvedores que já faziam para o chat GPT,
03:10usando os modelos da OpenAI,
03:12vão poder facilmente migrar para os modelos Lhama.
03:16Então, eu achei que foi certeiro, foi muito legal,
03:20eles desenvolverem esse novo jeito de acessar os modelos via API,
03:24e acho que muito desenvolvedor vai ficar contente.
03:28Embora ainda, Marisa, seja experimental,
03:30eles falaram que está em fase de preview, de teste,
03:34então a gente ainda não sabe como vai ser implementado na prática.
03:38Então, pessoas que já foram pré-selecionadas,
03:40que estão em uma lista, têm acesso.
03:41Vamos ver se lá para frente isso vai virar mesmo,
03:44e se realmente as pessoas vão fazer um bom uso dessa ferramenta.
03:47Agora, Pena, nós tivemos também outro anúncio importante da Big Tech.
03:53A Meta AI já está disponível nas redes sociais da Meta,
03:58como WhatsApp, Instagram e Facebook, e também o Messenger.
04:03A empresa foi além e anunciou também um aplicativo de inteligência artificial independente,
04:10parecido até com o chat GPT.
04:12A Meta AI chegou gerando memes aqui no Brasil,
04:15porque errou bastante.
04:17A pergunta é, essa tecnologia evoluiu e mais,
04:22como que a Meta está situada para o grande público nessa questão dos chatbots?
04:28Então, a gente brincou bastante,
04:33o pessoal zoou muito a Meta nesse momento,
04:35que eles colocaram a sua inteligência artificial dentro dos apps diretamente,
04:39mas o pessoal percebeu que não servia para muita coisa,
04:43era mais para fazer doera mesmo do que não era robusto,
04:47não tinha uma interface boa, não fazia coisas assim que fizessem diferença.
04:51Agora não.
04:52Agora eles falam assim, então vamos dar dois passos atrás
04:54e vamos copiar o modelo que as pessoas mais usam,
04:58que é o modelo mais usado,
04:59que é a ferramenta mais usada de todos os tempos,
05:02inclusive, que é justamente o chat GPT,
05:05que bateu recordes de usuários.
05:07Então, eles resolveram fazer um aplicativo dedicado
05:09para que você possa acessar o modelo,
05:12exatamente como o chat GPT, com as funcionalidades.
05:15Eles meio que copiaram todas as funcionalidades.
05:17Então, você vai poder ter histórico de mensagem,
05:20você vai poder ter uma área de memória,
05:22em que você vai poder dizer as coisas que você quer que o modelo lembre.
05:26Ah, qual que é o meu nome?
05:27O que eu faço?
05:27O aniversário da minha filha?
05:29E coisas que são relevantes para você deixar lá,
05:31que ele sempre vai lembrar.
05:32Eles também têm uma interface que gera multimodal,
05:37que vai gerar imagens.
05:38Tem uma parte de voz avançada.
05:41Eles demonstraram.
05:42Isso não está ainda disponível,
05:44mas eles demonstraram.
05:47Ou seja, estão também colocando esse modo natural de você conversar.
05:50Tudo isso que a OpenIA já foi pioneira nisso
05:53e outros, o Gemini também já replicou.
05:56E agora eles estão replicando também.
05:58Porém, Marisa, vale dizer que nem tudo eles conseguiram replicar.
06:02Então, o acesso a ferramentas não está disponível.
06:06Então, o modelo não consegue, por exemplo,
06:09navegar na internet, acessar sites.
06:10Ele ainda está confinado com as informações que ele foi treinado.
06:14Não consegue usar programação,
06:16fazer usar ferramentas de programação.
06:19Enfim, ainda estão desenvolvendo.
06:23Mas eles lançaram uma coisa nova,
06:26que é justamente...
06:27Você vai lançar um negócio meio que está copiando os outros?
06:29Bom, tem que enfiar alguma coisa nova
06:31para ver se chama atenção.
06:32que é a integração com o óculos Ray-Ban,
06:36que é um óculos que é em parceria com a Meta,
06:39que ele consegue, por exemplo, filmar.
06:42Então, já foi noticiado aqui também no passado,
06:45esse óculos em que a pessoa consegue ligar uma câmera,
06:48a câmera já filma, já tira foto,
06:51você já tem uma interface.
06:53Então, eles integraram com esse app.
06:55Então, eu não sei como vai funcionar.
06:57Você está lá filmando e pede para fazer uma pergunta?
07:00Eu não sei, Marisa, como que isso vai funcionar na prática?
07:02Eles não mostraram ainda, na demonstração não tinha essa parte.
07:07Eles só falaram que teria integração.
07:08Então, a gente também tem que esperar um pouco mais
07:10para ver se isso é só uma cartada de marketing
07:13ou se vai ser algo realmente útil.
07:15Pois é, e lembrando que essa convenção, digamos assim,
07:21da Meta foi hoje à tarde, não é?
07:23Então, os lançamentos aí temos que esperar.
07:24Mais de uma coisa que é lançada hoje, Marisa.
07:27Exato.
07:27É sempre assim.
07:28A gente traz a notícia do hoje porque todo dia tem coisa nova.
07:32Exatamente.
07:33É sempre assim.
07:33Agora, vamos falar um pouquinho sobre a NVIDIA.
07:37A gente até fez uma reportagem, noticiamos no nosso site ontem,
07:42sobre a NVIDIA, falando que a NVIDIA trouxe um conceito
07:46de inteligência artificial física.
07:50E eu queria trazer esse assunto para a nossa coluna de hoje
07:52porque essa inovação visa capacitar robôs, humanoides
07:56e dispositivos robóticos e industriais
07:59a executarem tarefas complexas no mundo real
08:03com maior precisão e autonomia.
08:07A pergunta é, essa novidade pode mudar o mercado?
08:10Fala um pouco sobre essa inteligência artificial física.
08:15É muito interessante isso, Marisa, porque, olha só,
08:18a gente já tinha robôs que treinavam em ambientes físicos
08:22antes de existir, por exemplo, o chat APT, esses modelos de linguagem.
08:27Então, já existia esses robôs que aprendiam de maneira física,
08:32mas eles eram limitados em várias coisas.
08:34Por exemplo, você não poderia conversar com um robô desse.
08:37Ele não tinha modelo de linguagem.
08:39Ele só fazia ali uma tarefa, um braço robótico.
08:43Imagina numa indústria de carros que vai lá e faz ali.
08:46Ele foi treinado a repetir aquele movimento
08:50e ele só faz aquilo, não faz mais nada.
08:53Mas agora, o que acontece?
08:54A gente está vendo esses novos modelos de linguagem,
08:57essas IAs que conversam, integrando nesses robôs também.
09:01Porque é mais legal, né?
09:02Você quer ter, digamos, um assistente que vai cozinhar para você,
09:05você quer conversar com ele, pedir uma receita,
09:08faz um omelete para mim.
09:10E aí ele vai poder também agir da maneira física
09:13e ter um controle físico bastante grande.
09:16Mas essas duas coisas, essas duas tecnologias
09:18eram um pouco incompatíveis, era difícil,
09:20porque o modelo que é o cérebro, que é o de linguagem,
09:24ele não tem um sistema motor muito bem feito.
09:28Então aí várias gambiarras que a gente tem que fazer,
09:31inclusive eu que desenvolvo robôs,
09:33esse é um caminho complexo de como que eu consigo fazer
09:35um sistema motor gerenciado por um cérebro de modelo de linguagem.
09:40Então era um desafio.
09:41Então o que a NVIDIA está trazendo é o seguinte,
09:43E se a gente estendesse o modelo de linguagem
09:47para também entender do mundo físico?
09:50Olha que interessante o conceito.
09:51Em vez de a gente só treinar em linguagem,
09:54em textos, em falas,
09:56a gente também treina em relações espaciais,
09:58passa coordenadas de objetos,
10:00passa como que as coisas estão no mundo físico,
10:03coloca também câmeras e sensores no robô
10:05para que ele perceba...
10:07mais a parte física,
10:13e esse é o conceito que eles estão trazendo
10:14como o Physical AI.
10:17Eu acho que isso é muito promissor,
10:20realmente acho que isso pode dar uma vantagem,
10:23porque veja só,
10:24agora até é uma coisa interessante,
10:26a linguagem já compreende o mundo físico,
10:29isso é uma discussão filosófica muito legal,
10:32porque, e eu gosto até de comparar com,
10:35por exemplo, pessoas que são cegas de nascença.
10:37Então imagina só, Marisa,
10:39a visão é algo tão precioso, importante,
10:42é o nosso sentido mais avançado,
10:43e a gente usa a visão para tudo.
10:45Mas uma pessoa que nasceu cega de nascença,
10:49não quer dizer que ela não pode aprender
10:50do mundo físico e entender o que é uma visão.
10:54Ela vai ter dificuldades, claro,
10:56mas através de interagir com o mundo,
10:59com os outros sensores que ela tem,
11:01ela vai eventualmente poder mapear o mundo físico,
11:04e vai decodificar.
11:06A informação do mundo físico está codificada
11:08em todos os outros sensores também.
11:10É a mesma coisa com a linguagem.
11:12A nossa linguagem humana é tão complexa
11:14e tão profunda
11:16que a gente pode explicar coisas muito difíceis.
11:19Então eu sou capaz de relatar uma coisa da minha vida
11:23e fazer as pessoas se emocionarem
11:24dizendo alguma coisa,
11:26mesmo sem elas terem vivido fisicamente,
11:28tal como é complexo a linguagem humana.
11:31A gente adora ouvir histórias.
11:34O ser humano adora contar histórias
11:35porque a linguagem humana
11:36permite a outra pessoa viver um pouco
11:39da experiência daquela história,
11:40mesmo sem estar fisicamente.
11:42Então a linguagem já compreende o mundo físico.
11:45O problema é que é uma decodificação complexa.
11:48Então os modelos de linguagem
11:50aprender sobre o mundo físico,
11:51de maneira indireta,
11:52é como um cego de nascença
11:54tentar entender a visão.
11:55Então é difícil, é mais complicado.
11:58Então nesse sentido a gente está dando,
12:01a NVIDIA está dando a visão para esses modelos,
12:04no sentido que está dando agora
12:06a compreensão física direta do mundo,
12:08a relação física dos objetos.
12:11Então eu acredito que sim,
12:12isso pode se tornar revolucionário,
12:15os novos robôs vão poder ter mais autonomia
12:18para conversar e para agir no mundo.
12:20Então quem sabe a gente está um pouco mais perto
12:23desses assistentes dos Jetsons, por exemplo,
12:27que vão poder cozinhar para a gente
12:29e a gente vai lá e pede o omelete
12:30e ele entrega para a gente.
12:33Curioso e excelente a sua explicação, Pena.
12:36Muitíssimo obrigada, viu,
12:37por mais uma grande participação aqui
12:40em mais uma coluna Fala Aí.
12:42Semana que vem vamos aguardar os próximos capítulos
12:45e ver o que acontece para a gente trazer aqui
12:47para o nosso quadro.
12:48Obrigada e até semana que vem.
12:51É isso aí, Marisa.
12:52Boa noite, pessoal.
12:53Até semana que vem.
12:54Até.
12:55É, um beijo, boa noite, Pena.
12:58É isso aí, pessoal.
12:59Roberto Pena Spinelli,
13:01mais uma grande participação aqui com a gente
13:03na coluna semanal Fala Aí.
13:07Semana que vem tem mais assunto interessante por aqui.
13:11Não percam.
13:12Tchau!
13:12Tchau!
13:13Tchau.
13:13Tchau!
13:14Tchau!
13:23Tchau!
13:24Tchau!

Recomendado