Sábado, 18 de Janeiro de 2025
24°C 33°C
Rio de Janeiro, RJ
Publicidade

Google IA Bard, Multisearch e outras novidades da gigante chegam ao Brasil

Entre as principais novidades anunciadas pelos porta-vozes da empresa, está a expansão para mais países do Multisearch, experiência de busca que combina imagem e texto no aplicativo da Busca. A experiência já está disponível a partir de hoje no Brasil.

Maurício Júnior
Por: Maurício Júnior
08/02/2023 às 19h16 Atualizada em 08/02/2023 às 19h26
Google IA Bard, Multisearch e outras novidades da gigante chegam ao Brasil
Foto: Divulgação / Reprodução

São Paulo, 08 de fevereiro de 2022 - Após anunciar a chegada do Bard, seu serviço experimental de IA conversacional, o Google realizou nesta quarta-feira (07), em Paris, um evento global onde apresentou as últimas inovações em IA para Busca, Google Maps e Google Tradutor. Entre as principais novidades anunciadas pelos porta-vozes da empresa, está a expansão para mais países do Multisearch, experiência de busca que combina imagem e texto no aplicativo da Busca. A experiência já está disponível a partir de hoje no Brasil.

Continua após a publicidade

No Maps, o Google apresentou avanços em IA e Realidade Aumentada, entre eles a expansão da funcionalidade Live Indoor View, que inclui 1.000 novos aeroportos, estações de trem e shoppings em cidades ao redor do mundo, cidades ao redor do mundo, incluindo Londres, Paris, Berlim e São Paulo nos próximos meses.

Na ocasião, o Vice Presidente do Google, Prabhakar Raghavan, compartilhou mais detalhes sobre o Bard, novo serviço experimental de IA conversacional alimentado pelo LaMDA, e suas aplicações. Ele reforçou ainda a importância de desenvolver a tecnologia de forma ousada e responsável, com informação atual e de qualidade. O Bard está em período de testes de grupos externos e, após um período de feedbacks, deverá chegar ao público nas próximas semanas.

Conheça os principais anúncios a seguir:

Multisearch chegando ao Brasil: novas formas de “dar o Google”

As câmeras dos dispositivos móveis se tornaram uma maneira poderosa de explorar e entender o mundo ao nosso redor. Para se ter uma ideia, o aplicativo Lens é usado mais de 10 bilhões de vezes por mês, já que as pessoas pesquisam o que enxergam por meio das imagens de suas câmeras.

No ano passado, alcançamos um marco importante com o lançamento nos Estados Unidos do Multisearch, uma nova forma de pesquisar usando texto e imagens ao mesmo tempo. No aplicativo do Google, você pode usar o Lens para tirar uma foto ou usar uma captura de tela e adicionar texto à ela, da mesma forma que você pode apontar naturalmente para algo e fazer uma pergunta sobre isso. A ideia é poder apontar sua câmera naturalmente para algo e fazer uma pergunta sobre isso. A partir de hoje, a experiência começa a entrar no ar em dispositivos móveis em todos os idiomas e países onde o Lens está disponível, incluindo o Brasil.

Continua após a publicidade

Recentemente, o Google também adicionou ao recurso de Multisearch a possibilidade de pesquisar localmente. Você pode tirar uma foto com o Lens e adicionar o "perto de mim" na pesquisa para encontrar o que precisa ou fazer a captura de tela de um prato ou um objeto e ver em qual restaurante ou loja mais próxima os itens estão disponíveis. Nos próximos meses, vamos oferecer o recurso para todos os idiomas e países onde o Lens está disponível, incluindo o Brasil.

Com o Lens, o objetivo do Google é conectar as pessoas às informações do mundo. Já é possível usar o Lens para pesquisar usando câmera ou fotos, diretamente na barra de Busca. Agora, será possível pesquisar sobre o que está na tela do seu celular.

Nos próximos meses, você poderá usar o Lens para “pesquisar tela” (Search screen, em inglês) diretamente no Android. Com essa tecnologia, você pode pesquisar o que vê em fotos ou vídeos em sites e utilidades que conhece, como aplicativos de mensagens e vídeos, sem precisar sair deles ou perder o momento.

Maps: Visualização imersiva e Live Indoor View em mais países

No ano passado, o Google compartilhou sua visão para o futuro do Google Maps: um mapa interativo e intuitivo que reinventa como você busca e navega, ajudando as pessoas a fazerem escolhas mais úteis e sustentáveis. No evento de hoje, a empresa mostrou como a IA está dando vida a essa missão, com atualizações para visualização imersiva e Live View, além de novos recursos para motoristas de veículos elétricos e pessoas que se locomovem por bicicleta ou transporte público.

Um dos recursos mais esperados, a Visualização Imersiva está disponível agora em mais cinco cidades, entre elas Londres, Los Angeles, Nova York, São Francisco e Tóquio e, nos próximos meses, em Florença, Veneza, Amsterdã e Dublin, e traz avanços em IA e visão computacional, com uma imersão que funde bilhões de imagens de Street View e panoramas aéreos para criar um modelo digital.

Digamos que você esteja planejando uma visita ao Rijksmuseum em Amsterdã. Você pode sobrevoar virtualmente o prédio e ver onde e como está a entrada. Com um controle deslizante de tempo, você pode ver ainda a aparência da área em diferentes momentos do dia e como estará o clima. Também é possível identificar onde tende a ficar mais lotado para ter todas as informações necessárias para decidir quando ir. Se estiver com fome, é possível descer até o nível da rua para explorar os restaurantes próximos e dar uma olhada no interior para entender rapidamente a animação de um lugar antes de fazer sua reserva.

Continua após a publicidade

O Google anunciou hoje também que vai expandir a funcionalidade do Live Indoor View para mais de 1.000 novos aeroportos, estações de trem e shoppings em cidades ao redor do mundo, incluindo São Paulo, Londres, Paris, Berlim, Madri, Barcelona, ​​​​Praga, Frankfurt, Tóquio, Sydney, Melbourne, Cingapura e Taipei. Com o Live View, é possível apontar a câmera do celular dentro dos locais para encontrar lojas, caixas eletrônicos e restaurantes.

Novos lançamentos tornam o Tradutor mais acessível para os seus 1 bilhão de usuários

Para o Tradutor, o Google anunciou mudanças no design, que foi completamente redesenhado para os usuários do Android e ganhará uma nova interface para os usuários de iOS. A plataforma também oferecerá, nos próximos meses, traduções mais abrangentes e contextuais para palavras únicas, frases curtas e expressões com vários significados, ajudando você a entender melhor e encontrar a melhor tradução com base no contexto. Isso estará disponível em inglês, francês, alemão, japonês e espanhol nas próximas semanas e será expandido para mais idiomas nos próximos meses. Leia mais no blog post.

No Brasil e no mundo, também começam a funcionar as funções de tradução de realidade aumentada no Lens, que misturam perfeitamente o texto traduzido em imagens, tornando-as muito mais naturais.

* O conteúdo de cada comentário é de responsabilidade de quem realizá-lo. Nos reservamos ao direito de reprovar ou eliminar comentários em desacordo com o propósito do site ou que contenham palavras ofensivas.
500 caracteres restantes.
Comentar
Mostrar mais comentários
Tech
Tech
Tudo sobre tecnologia, tendências e games em um só lugar!
Ver notícias
Rio de Janeiro, RJ
22°
Tempo limpo
Mín. 24° Máx. 33°
23° Sensação
1.79 km/h Vento
94% Umidade
0% (0mm) Chance chuva
05h22 Nascer do sol
05h22 Pôr do sol
Domingo
32° 25°
Segunda
34° 24°
Terça
33° 26°
Quarta
32° 27°
Quinta
29° 25°
Publicidade
Publicidade
Publicidade
Economia
Dólar
R$ 6,06 -0,10%
Euro
R$ 6,22 -0,18%
Peso Argentino
R$ 0,01 +0,00%
Bitcoin
R$ 663,066,20 -1,75%
Ibovespa
122,350,38 pts 0.92%
Publicidade
Publicidade
Enquete
...
...