Conecte-se com a gente!

TECNOLOGIA

Como a NVIDIA se tornou um grande player em robótica

[A version of this post appeared in TechCrunch’s robotics newsletter, Actuator. Subscribe here.]

A última vez que conversei longamente com a NVIDIA sobre robótica foi também a última vez que apresentamos Claire Delaunay no palco em nosso evento Sessions. Isso foi há um tempo. Ela deixou a empresa em julho passado para trabalhar com startups e fazer investimentos. Na verdade, ela voltou ao palco do TechCrunch no Disrupt há duas semanas para discutir seu trabalho como consultora do conselho da empresa de tecnologia agrícola Farm-ng.

Não que a Nvidia esteja desesperada por reforço positivo após os seus últimos relatórios de lucros, mas merece salientar o quão bem a estratégia robótica da empresa valeu a pena nos últimos anos. A Nvidia investiu muito na categoria em um momento em que a integração da robótica além da fabricação ainda parecia uma quimera para muitos. Abril marca uma década desde o lançamento do TK1. Nvidia descreveu a oferta assim na época“Jetson TK1 traz os recursos do Tegra K1 para desenvolvedores em uma plataforma compacta e de baixo consumo de energia que torna o desenvolvimento tão simples quanto desenvolver em um PC.”

Neste mês de fevereiro, o empresa anotada, “Um milhão de desenvolvedores em todo o mundo estão agora usando a plataforma Nvidia Jetson para IA de ponta e robótica para construir tecnologias inovadoras. Além disso, mais de 6.000 empresas – um terço das quais são startups – integraram a plataforma aos seus produtos.”

Seria difícil encontrar um desenvolvedor de robótica que não tenha passado muito tempo com a plataforma e, francamente, é notável como os usuários variam de amadores a corporações multinacionais. Esse é o tipo de divulgação que empresas como Arduino mataria por.

Na semana passada, visitei os enormes escritórios da empresa em Santa Clara. Os edifícios, que inaugurado em 2018, são impossíveis de perder na via expressa San Tomas. Na verdade, existe uma ponte pedonal que atravessa a estrada, ligando a antiga e a nova sede. O novo espaço é composto principalmente por dois edifícios: Voyager e Endeavour, com 500.000 e 750.000 pés quadrados, respectivamente.

Entre os dois há uma passarela externa ladeada por árvores, sob grandes treliças entrecruzadas que sustentam painéis solares. A batalha pela sede da Big Tech em South Bay realmente esquentou nos últimos anos, mas quando você está efetivamente imprimindo dinheiro, comprar terrenos e construir escritórios é provavelmente o melhor lugar para direcioná-lo. Basta perguntar à Apple, Google e Facebook.

Créditos da imagem: NVIDIA

Enquanto isso, a entrada da Nvidia na robótica se beneficiou de todos os tipos de kismet. A empresa conhece o silício tão bem quanto qualquer pessoa no planeta neste momento, desde o projeto e fabricação até a criação de sistemas de baixo consumo de energia capazes de executar tarefas cada vez mais complexas. Esse material é fundamental para um mundo cada vez mais investido em IA e ML. Enquanto isso, o amplo conhecimento da Nvidia em jogos provou ser um grande trunfo para Isaac Sim, sua plataforma de simulação robótica. É uma tempestade perfeita, na verdade.

Falando na SIGGRAPH em agosto, o CEO Jensen Huang explicou: “Percebemos que a rasterização estava atingindo seus limites. 2018 foi um momento de ‘apostar na empresa’. Exigiu que reinventássemos o hardware, o software, os algoritmos. E enquanto reinventávamos a CG com IA, reinventávamos a GPU para IA.”

Depois de algumas demonstrações, conversei com Deepu Talla, vice-presidente e gerente geral de Embedded & Edge Computing da Nvidia. Quando começamos a conversar, ele apontou para um sistema de teleconferência da Cisco na parede oposta que executa a plataforma Jetson. Está muito longe dos AMRs típicos em que tendemos a pensar quando pensamos em Jetson.

“A maioria das pessoas pensa na robótica como uma coisa física que normalmente tem braços, pernas, asas ou rodas – o que você chama de percepção de dentro para fora”, observou ele em referência ao dispositivo de escritório. “Assim como os humanos. Os humanos têm sensores para ver o que nos rodeia e adquirir consciência situacional. Há também uma coisa chamada robótica externa. Essas coisas não se movem. Imagine que você tivesse câmeras e sensores em seu prédio. Eles são capazes de ver o que está acontecendo. Temos uma plataforma chamada Nvidia Metropolis. Possui análise de vídeo e pode ser ampliado para cruzamentos de tráfego, aeroportos e ambientes de varejo.”

Créditos da imagem: TechCrunch

Qual foi a reação inicial quando você exibiu o sistema Jetson em 2015? Vinha de uma empresa que a maioria das pessoas associa aos jogos.

Sim, embora isso esteja mudando. Mas você está certo. É a isso que a maioria dos consumidores está acostumada. A IA ainda era nova, você tinha que explicar qual caso de uso estava compreendendo. Em novembro de 2015, Jensen [Huang] e fui a São Francisco apresentar algumas coisas. O exemplo que tivemos foi um drone autônomo. Se você quisesse fazer um drone autônomo, o que seria necessário? Você precisaria ter tantos sensores, precisaria processar tantos quadros, precisaria identificar isso. Fizemos algumas contas aproximadas para identificar quantos cálculos precisaríamos. E se você quiser fazer isso hoje, qual é a sua opção? Não havia nada parecido na época.

Como a história dos jogos da Nvidia influenciou seus projetos de robótica?

Quando iniciamos a empresa, foram os jogos que nos financiaram para construir as GPUs. Em seguida, adicionamos CUDA às nossas GPUs para que pudesse ser usado em aplicações não gráficas. CUDA é essencialmente o que nos levou à IA. Agora a IA está ajudando os jogos, por causa do ray tracing, por exemplo. No final das contas, estamos construindo microprocessadores com GPUs. Todo esse middleware de que falamos é o mesmo. CUDA é o mesmo para robótica, computação de alto desempenho e IA na nuvem. Nem todo mundo precisa usar todas as partes do CUDA, mas é a mesma coisa.

Como Isaac Sim se compara a [Open Robotics’] Mirante?

Gazebo é um simulador bom e básico para fazer simulações limitadas. Não estamos tentando substituir o Gazebo. Gazebo é bom para tarefas básicas. Fornecemos uma ponte ROS simples para conectar o Gazebo ao Isaac Sim. Mas Isaac pode fazer coisas que ninguém mais pode fazer. É construído em cima do Omniverse. Todas as coisas que você tem no Omniverse vêm para Isaac Sim. Ele também foi projetado para conectar qualquer modo de IA, qualquer estrutura, todas as coisas que fazemos no mundo real. Você pode conectá-lo para ter toda a autonomia. Também tem fidelidade visual.

Você não quer competir com o ROS.

Não não. Lembre-se, estamos tentando construir uma plataforma. Queremos nos conectar com todos e ajudar outros a alavancar nossa plataforma, assim como nós aproveitamos a deles. Não adianta competir.

Você está trabalhando com universidades de pesquisa?

Absolutamente. Dieter Fox é o chefe de pesquisa em robótica da Nvidia. Ele também é professor de robótica na Universidade de Washington. E muitos dos nossos membros de pesquisa também têm afiliações duplas. Eles são afiliados a universidades em muitos casos. Nós publicamos. Quando você está fazendo pesquisa, ela tem que ser aberta.

Você está trabalhando com usuários finais em questões como implantação ou gerenciamento de frota?

Provavelmente não. Por exemplo, se a John Deere vende um trator, os agricultores não falam connosco. Normalmente, o gerenciamento de frota é. Temos ferramentas para ajudá-los, mas a gestão da frota é feita por quem está prestando o serviço ou construindo o robô.

Quando a robótica se tornou uma peça do quebra-cabeça da Nvidia?

Eu diria, início de 2010. Foi quando a IA meio que aconteceu. Acho que a primeira vez que o aprendizado profundo surgiu em todo o mundo foi em 2012. Houve um perfil recente em Bryan Catanzaro. Ele então imediatamente disse em LinkedIn, [Full quote excerpted from the LinkedIn post], “Na verdade, não convenci Jensen, apenas expliquei o aprendizado profundo para ele. Ele instantaneamente formou sua própria convicção e transformou a Nvidia em uma empresa de IA. Foi inspirador assistir e às vezes ainda não consigo acreditar que estive lá para testemunhar a transformação da Nvidia.”

2015 foi quando iniciamos a IA não apenas para a nuvem, mas também para EDGE para Jetson e direção autônoma.

Quando você discute IA generativa com as pessoas, como você as convence de que é mais do que apenas uma moda passageira?

Acho que isso fala nos resultados. Você já pode ver a melhoria da produtividade. Ele pode escrever um e-mail para mim. Não está exatamente certo, mas não preciso começar do zero. Está me dando 70%. Há coisas óbvias que você já pode ver que são definitivamente uma função passo a passo melhor do que como eram antes. Resumindo algo não é perfeito. Não vou deixar que seja lido e resumido para mim. Então, já é possível ver alguns sinais de melhorias de produtividade.

Fonte: techcrunch.com

Continue lendo
Clique para comentar

Deixe sua resposta

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

TECNOLOGIA

Google construirá primeiro cabo submarino de fibra óptica conectando a África à Austrália

Google é preparando-se para construir qual será o primeiro cabo submarino de fibra óptica conectando os continentes da África e da Austrália.

A notícia chega no momento em que os principais hiperescaladores de nuvem lutam por dólares comerciais, com o Google tentando alcançar a AWS e o Azure da Microsoft.

Notavelmente, o anúncio do Google segue interrupções generalizadas em toda a África Oriental, que foram atribuídos a cabos submarinos defeituosos. E para uma empresa que depende de conectividade resiliente para fornecer os seus serviços aos consumidores e às empresas, a Google está claramente a tentar capitalizar isso para se posicionar como a solução.

Apelidado de “Umoja”, o seu novo cabo começa no Quénia e passa por vários países, incluindo o Uganda, o Ruanda, a República Democrática do Congo, a Zâmbia e o Zimbabué, antes de concluir a sua viagem terrestre na África do Sul – nomeadamente o lar dos primeiros dados africanos do Google. regiões centrais, que está operacional em Joanesburgo desde o início deste ano.

A parte terrestre da rota já está completa, confirmou o Google ao TechCrunch, que disse trabalhar com uma empresa chamada Tecnologias Inteligentes Líquidas para esse segmento. No entanto, o trabalho de canalização do cabo através do Oceano Índico até Perth, na Austrália, já está em andamento.

“O Umoja permitirá que os países africanos se conectem de forma mais confiável entre si e com o resto do mundo”, disse Brian Quigley, vice-presidente do Google Cloud para infraestrutura de rede global. disse em uma postagem no blog hoje. “Estabelecer uma nova rota distinta das rotas de conectividade existentes é fundamental para manter uma rede resiliente para uma região que historicamente sofreu interrupções de alto impacto.”

Cabo Umoja do Google
Créditos da imagem: Google

centenas de cabos abrangendo os mares, oceanos e hidrovias do mundo, com Big Tech incluindo Google, Meta, Microsoft e Amazon reivindicando um participação cada vez maior na infraestrutura. A razão é simples: quanto mais cabos e centros de dados existirem, melhor qualidade de serviço estas empresas podem oferecer aos seus clientes, seja fluxos de YouTube de menor latência ou transferências de dados mais rápidas para empresas investidas na nuvem.

A rota de cabo submarino mais próxima do que o Google está propondo com o Umoja seria o Cabo Omã Austrália (OAC) que conecta Omã a Perth, inaugurado em 2022. E o próprio Google já investiu em vários projetos de cabeamento centrados na África, incluindo Equiano que liga Portugal com a Nigéria e a África do Sul.

No início deste ano, o Google também anunciou planos para construir o que será um dos primeiros cabos submarinos conectando a América do Sul à Ásia-Pacífico, indo do Chile à Austrália através da Polinésia Francesa.

Embora o Google não tenha fornecido um prazo específico para a conclusão do Umoja, um porta-voz disse ao TechCrunch que a construção de um cabo submarino típico, desde o planejamento até a entrada em operação, leva cerca de três anos. Portanto, podemos, talvez, esperar que este cabo esteja pronto para o horário nobre por volta de 2026.

Fonte: techcrunch.com

Continue lendo

TECNOLOGIA

O novo Kia EV3 terá um assistente de IA com DNA ChatGPT

O Kia EV3 – o novo SUV compacto totalmente elétrico revelado quinta-feira – ilustra um apetite crescente entre as montadoras globais em trazer IA generativa para seus veículos.

A montadora disse que o Kia EV3 contará com um novo assistente de voz desenvolvido Bate-papoGPT, o chatbot de IA de geração de texto desenvolvido pela OpenAI. O Kia EV3 e o seu assistente de IA chegarão ao mercado pela primeira vez na Coreia em julho de 2024, seguido pela Europa no segundo semestre do ano. A Kia espera expandir as vendas do Kia EV3 para outras regiões após o lançamento europeu. O Kia EV3 eventualmente chegará aos Estados Unidos, embora a montadora não tenha fornecido uma data.

Este não é, no entanto, um assunto puro da OpenAI. A Kia também participou do desenvolvimento do assistente de voz.

Pablo Martinez, chefe de design de experiência do cliente da Kia, explicou que embora o modelo de linguagem grande (LLM) por trás do assistente de IA seja o ChatGPT da OpenAI, ele foi “fortemente modificado” e personalizado pela montadora. Estas modificações foram feitas para permitir aos clientes planear viagens, controlar o veículo e encontrar entretenimento, incluindo música ou jogos, tudo através do novo assistente Kia, disse Martinez durante uma coletiva de imprensa antes da revelação.

Créditos da imagem: Kia

Assistentes de voz em veículos não são novidade. Mas a experiência para os motoristas varia entre inútil e meu Deus, por que estou gritando com meu carro. Fabricantes de automóveis como BMW, Kia, Mercedes-Benz e Volkswagen argumentaram que a IA generativa tornará os assistentes de voz muito mais capazes e lhes dará a capacidade de interagir com motoristas e passageiros de uma forma natural.

As conversas sobre a aplicação de IA generativa a veículos aumentaram no ano passado, à medida que o tópico – e a startup OpenAI – atingiram a estratosfera do hype. Mercedes-Benz adicionou o AI-bot conversacional ao seu sistema de infoentretenimento MBUX em junho de 2023. Em janeiro, as montadoras BMW e Volkswagen estavam mostrando a tecnologia na feira de tecnologia CES em Las Vegas.

O chamado Kia Assistant estreou em abril no Kia K4, o novo sedã compacto movido a gasolina que chegará ao mercado neste verão. O Kia EV3 é o primeiro veículo totalmente elétrico do portfólio da empresa a receber o novo assistente baseado em IA.

Fonte: techcrunch.com

Continue lendo

TECNOLOGIA

A API do Bing está inativa, desativando também o recurso de pesquisa na web do Microsoft Copilot, DuckDuckGo e ChatGPT

Google, o mecanismo de busca da Microsoft, não está funcionando corretamente no momento. A princípio, percebemos que não era possível realizar nenhuma pesquisa na web. Agora parece que os resultados da pesquisa estão carregando corretamente.

Mas essa interrupção também parece estar afetando a interface de programação de aplicativos (API) do Bing, o que significa que outros serviços que dependem do Bing não estão funcionando corretamente.

Por exemplo, PatoDuckGo e Ecosiadois mecanismos de pesquisa alternativos que dependem dos resultados de pesquisa do Bing, não estão retornando nenhum resultado de pesquisa no momento. Copiloto da Microsoft também não está carregando. Os assinantes do ChatGPT Plus, que têm a capacidade de realizar pesquisas na web, também recebem um erro ao tentar pesquisar algo.

Captura de tela: Romain Dillet/TechCrunch
Créditos da imagem: PatoDuckGo
Captura de tela: Romain Dillet/TechCrunch
Créditos da imagem: OpenAI

Mais uma vez, uma interrupção prova que a web depende de um punhado de empresas de tecnologia. Se uma API falhar, muitos serviços serão afetados.

Neste caso específico, é interessante ver o papel cada vez mais importante da API do Bing. Embora o Google ainda domine quando se trata de pesquisa na web, muitos serviços agora dependem da API do Bing.

A Microsoft não foi encontrada imediatamente para comentar a interrupção.

Fonte: techcrunch.com

Continue lendo

Top

Social Media Auto Publish Powered By : XYZScripts.com