Conecte-se com a gente!

TECNOLOGIA

O ROS da Open Robotics é seguro apesar da compra do OSRC pela Alphabet, diz Intrinsic

“O objetivo da Intrinsic é democratizar o acesso à robótica”, disse-me Wendy Tan White, CEO da Intrinsic, no TechCrunch Disrupt na semana passada, onde apareceu ao lado de Brian Gerkey, diretor da Open Robotics, que foi recentemente adquirida pela Intrinsic.

A aquisição da OSRC – o braço comercial da Open Robotics – teve uma recepção mista em toda a indústria, em parte porque a mensagem em torno da aquisição era um pouco confusa. A Intrinsic esclarece quais peças comprou e quais permaneceram como parte da Open Source Robotics Foundation (OSRF), que permanece independente.

Por um lado, ter dinheiro do Google (desculpe, Alfabeto dinheiro) significa que, em teoria, o projeto de código aberto deveria ser bem provisionado. Por outro lado, o Google teve alguns resultados mistos, tanto em código aberto quanto em robótica. O Android é provavelmente um dos projetos de código aberto mais conhecidos do mundo, mas os críticos dizem que algumas das melhores partes não são tão abertas quanto deveriam sere o Google continua fazendo escolhas que tornam o Android menos completo – por exemplo, SMS ou aplicativos de discagem não são mais uma parte essencial do sistema operacional. Isso é . . . curioso, visto que fazer ligações e receber mensagens de texto é, para muitos, um aspecto central de ter um telefone.

Na frente da robótica, a Alphabet também tem uma história um tanto confusa, já que Brian resumiu nesta edição do boletim informativo Actuator. É nesse contexto que a aquisição da Open Robotics recebeu algumas sobrancelhas levantadas: é uma parte essencial de muitos projetos de robótica – como a variedade de aplicações provocadas ROSCon ainda este ano irá atestar.

Então, perguntei à dupla se o ROS está seguro caso a Alphabet decida realizar outra rodada de demissões semelhante a os 12.000 funcionários que demitiram no início deste ano.

“Cabe a nós realmente fazer com que isso funcione, mas acho que realmente temos uma chance”, disse Gerkey, acrescentando que considera que a aquisição é a coisa certa a fazer para continuar o crescimento e a pesquisa. Apoia o movimento de código aberto, mas também protege as ferramentas nas quais eles confiavam, disse ele.

White destacou que o Intrinsic é uma entidade separada e tem algum nível de proteção. Isso pode ser verdade, mas o próprio Intrínseco sofreu algumas perdas com demissões no início deste ano, como Everyday Robots (um salto ambicioso para o futuro dos robôs que podem operar em estreita proximidade com humanos) foram descontinuados.

“Mas o que vimos foi que precisávamos de uma mudança radical para realmente levar esse desenvolvimento para o próximo nível e sermos capazes de realmente fornecer o que toda a comunidade robótica precisa em ROS. E foi isso que realmente motivou a decisão de se fundir com a Intrinsic”, disse Gerkey. “Honestamente, foi uma oportunidade para podermos realmente nos comprometer a longo prazo com o suporte a todo esse software de código aberto e não por um sentimento de altruísmo ou caridade. Não estamos fazendo isso apenas porque achamos que é bom para o mundo. Estamos fazendo isso porque também contamos com essas ferramentas.”

“Quando estávamos pensando em realmente nos fundir, pensamos nos dois sentidos sobre como iríamos proteger isso [open source] comunidade. Então, na verdade, continuamos investindo nisso. Na verdade, agora há mais recursos dedicados com o Intrinsic especificamente ao código aberto”, acrescentou White. “Eu também sei que para mudar radicalmente e perturbar toda a indústria, você não pode fazer isso sozinho. O modelo de código aberto funciona bem, e um modelo de ecossistema completo funciona muito bem.”

“Não faz sentido simplesmente pegar um software aleatório e jogá-lo no mundo. Na verdade, é preciso alguma consideração para pensar. Qual é o valor que isso vai proporcionar? E posso fornecê-lo de uma forma que as pessoas possam realmente fazer uso dele e posso me comprometer a apoiá-lo?” disse Gerkey. “Quando pensamos sobre o que faz sentido ter código aberto, realmente queremos procurar coisas onde produzimos algo internamente que achamos que realmente será uma virada de jogo para as pessoas no mundo todo e que será reutilizável. Não é algo específico da nossa pilha de software, mas sim algo que as pessoas podem usar em uma ampla variedade de configurações.”

Você pode ver a entrevista completa abaixo:


Correção: Uma versão anterior deste artigo confundia o papel de Brian Gerkey como ex-CEO e cofundador da Open Source Robotics Foundation (OSRF) e seu status distinto da Open Source Robotics Corporation (OSRC). A Intrinsic adquiriu esta última, enquanto a primeira permanece independente. O título e o artigo acima foram atualizados de acordo.

Fonte: techcrunch.com

Continue lendo
Clique para comentar

Deixe sua resposta

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

TECNOLOGIA

A compactação de memória em escala de nanossegundos do ZeroPoint poderia domar a infraestrutura de IA que consome muita energia

A IA é apenas o mercado mais recente e mais ávido para computação de alto desempenho, e os arquitetos de sistemas estão trabalhando sem parar para extrair cada gota de desempenho de cada watt. Startup sueca Zero pontosmunido de 5 milhões de euros (5,5 milhões de dólares) em novos financiamentos, quer ajudá-los com uma nova técnica de compressão de memória na escala de nanossegundos – e sim, é exatamente tão complicado quanto parece.

O conceito é este: compactar dados sem perdas antes de entrarem na RAM e descompactá-los depois, ampliando efetivamente o canal de memória em 50% ou mais apenas adicionando um pequeno pedaço ao chip.

A compressão é, obviamente, uma tecnologia fundamental na computação; como apontou o CEO da ZeroPoint, Klas Moreau (à esquerda na imagem acima, com os cofundadores Per Stenström e Angelos Arelakis): “Hoje, não armazenaríamos dados no disco rígido sem compactá-los. A pesquisa sugere que 70% dos dados na memória são desnecessários. Então, por que não comprimimos na memória?”

A resposta é que não temos tempo. Compactar um arquivo grande para armazenamento (ou codificá-lo, como dizemos quando é vídeo ou áudio) é uma tarefa que pode levar segundos, minutos ou horas dependendo de suas necessidades. Mas os dados passam pela memória em uma pequena fração de segundo, entrando e saindo tão rápido quanto a CPU consegue. O atraso de um único microssegundo, para remover os bits “desnecessários” de uma parcela de dados que vai para o sistema de memória, seria catastrófico para o desempenho.

A memória não avança necessariamente na mesma proporção que a velocidade da CPU, embora as duas (junto com muitos outros componentes do chip) estejam inextricavelmente conectadas. Se o processador for muito lento, os dados serão armazenados na memória – e se a memória for muito lenta, o processador desperdiçará ciclos esperando pela próxima pilha de bits. Tudo funciona em conjunto, como você poderia esperar.

Embora a compactação de memória super-rápida tenha sido demonstrada, ela resulta em um segundo problema: essencialmente, você tem que descompactar os dados tão rápido quanto os comprimiu, retornando-os ao seu estado original, ou o sistema não terá ideia de como. para lidar com isso. Portanto, a menos que você converta toda a sua arquitetura para esse novo modo de memória compactada, será inútil.

ZeroPoint afirma ter resolvido esses dois problemas com compactação de memória hiper-rápida e de baixo nível que não requer mudanças reais no resto do sistema de computação. Você adiciona a tecnologia deles ao seu chip e é como se você tivesse duplicado sua memória.

Embora os detalhes essenciais provavelmente só sejam inteligíveis para pessoas nesta área, os princípios básicos são fáceis de entender para os não iniciados, como Moreau provou quando me explicou.

“O que fazemos é pegar uma quantidade muito pequena de dados – uma linha de cache, às vezes de 512 bits – e identificar padrões nela”, disse ele. “É da natureza dos dados, eles são preenchidos com informações não tão eficientes, informações que estão escassamente localizadas. Depende dos dados: quanto mais aleatório for, menos compressível será. Mas quando olhamos para a maioria das cargas de dados, vemos que estamos na faixa de 2 a 4 vezes [more data throughput than before].”

Não é assim que a memória realmente parece. Mas você entendeu.
Créditos da imagem: Zero pontos

Não é nenhum segredo que a memória pode ser compactada. Moreau disse que todos na computação em grande escala conhecem a possibilidade (ele me mostrou um artigo de 2012 demonstrando isso), mas mais ou menos a descartaram como acadêmica, impossível de implementar em escala. Mas o ZeroPoint, disse ele, resolveu os problemas de compactação – reorganizando os dados compactados para serem ainda mais eficientes – e de transparência, de modo que a tecnologia não apenas funciona, mas funciona perfeitamente nos sistemas existentes. E tudo acontece em poucos nanossegundos.

“A maioria das tecnologias de compressão, tanto de software quanto de hardware, são da ordem de milhares de nanossegundos. CXL [compute express link, a high-speed interconnect standard] pode reduzir esse número para centenas”, disse Moreau. “Podemos reduzir para 3 ou 4.”

Aqui está o CTO Angelos Arelakis explicando do seu jeito:

A estreia do ZeroPoint é certamente oportuna, com empresas de todo o mundo em busca de uma computação mais rápida e barata para treinar mais uma geração de modelos de IA. A maioria dos hiperscaladores (se devemos chamá-los assim) está interessada em qualquer tecnologia que possa fornecer mais energia por watt ou permitir que reduzam um pouco a conta de energia.

A principal advertência para tudo isso é simplesmente que, como mencionado, isso precisa ser incluído no chip e integrado desde o início – você não pode simplesmente colocar um dongle ZeroPoint no rack. Para esse fim, a empresa está trabalhando com fabricantes de chips e integradores de sistemas para licenciar a técnica e o design de hardware para chips padrão para computação de alto desempenho.

É claro que são suas Nvidias e Intels, mas cada vez mais também empresas como Meta, Google e Apple, que projetaram hardware personalizado para executar internamente sua IA e outras tarefas de alto custo. A ZeroPoint está posicionando sua tecnologia como uma economia de custos, mas não como um prêmio: é concebível que, ao duplicar efetivamente a memória, a tecnologia se pague em pouco tempo.

A rodada A de € 5 milhões recém-fechada foi liderada pela Matterwave Ventures, com a Industrifonden atuando como líder nórdica local, e os investidores existentes Climentum Capital e Chalmers Ventures também contribuindo.

Moreau disse que o dinheiro deverá permitir-lhes expandir-se para os mercados dos EUA, bem como duplicar a aposta nos mercados suecos que já procuram.

Fonte: techcrunch.com

Continue lendo

TECNOLOGIA

Google construirá primeiro cabo submarino de fibra óptica conectando a África à Austrália

Google é preparando-se para construir qual será o primeiro cabo submarino de fibra óptica conectando os continentes da África e da Austrália.

A notícia chega no momento em que os principais hiperescaladores de nuvem lutam por dólares comerciais, com o Google tentando alcançar a AWS e o Azure da Microsoft.

Notavelmente, o anúncio do Google segue interrupções generalizadas em toda a África Oriental, que foram atribuídos a cabos submarinos defeituosos. E para uma empresa que depende de conectividade resiliente para fornecer os seus serviços aos consumidores e às empresas, a Google está claramente a tentar capitalizar isso para se posicionar como a solução.

Apelidado de “Umoja”, o seu novo cabo começa no Quénia e passa por vários países, incluindo o Uganda, o Ruanda, a República Democrática do Congo, a Zâmbia e o Zimbabué, antes de concluir a sua viagem terrestre na África do Sul – nomeadamente o lar dos primeiros dados africanos do Google. regiões centrais, que está operacional em Joanesburgo desde o início deste ano.

A parte terrestre da rota já está completa, confirmou o Google ao TechCrunch, que disse trabalhar com uma empresa chamada Tecnologias Inteligentes Líquidas para esse segmento. No entanto, o trabalho de canalização do cabo através do Oceano Índico até Perth, na Austrália, já está em andamento.

“O Umoja permitirá que os países africanos se conectem de forma mais confiável entre si e com o resto do mundo”, disse Brian Quigley, vice-presidente do Google Cloud para infraestrutura de rede global. disse em uma postagem no blog hoje. “Estabelecer uma nova rota distinta das rotas de conectividade existentes é fundamental para manter uma rede resiliente para uma região que historicamente sofreu interrupções de alto impacto.”

Cabo Umoja do Google
Créditos da imagem: Google

centenas de cabos abrangendo os mares, oceanos e hidrovias do mundo, com Big Tech incluindo Google, Meta, Microsoft e Amazon reivindicando um participação cada vez maior na infraestrutura. A razão é simples: quanto mais cabos e centros de dados existirem, melhor qualidade de serviço estas empresas podem oferecer aos seus clientes, seja fluxos de YouTube de menor latência ou transferências de dados mais rápidas para empresas investidas na nuvem.

A rota de cabo submarino mais próxima do que o Google está propondo com o Umoja seria o Cabo Omã Austrália (OAC) que conecta Omã a Perth, inaugurado em 2022. E o próprio Google já investiu em vários projetos de cabeamento centrados na África, incluindo Equiano que liga Portugal com a Nigéria e a África do Sul.

No início deste ano, o Google também anunciou planos para construir o que será um dos primeiros cabos submarinos conectando a América do Sul à Ásia-Pacífico, indo do Chile à Austrália através da Polinésia Francesa.

Embora o Google não tenha fornecido um prazo específico para a conclusão do Umoja, um porta-voz disse ao TechCrunch que a construção de um cabo submarino típico, desde o planejamento até a entrada em operação, leva cerca de três anos. Portanto, podemos, talvez, esperar que este cabo esteja pronto para o horário nobre por volta de 2026.

Fonte: techcrunch.com

Continue lendo

TECNOLOGIA

O novo Kia EV3 terá um assistente de IA com DNA ChatGPT

O Kia EV3 – o novo SUV compacto totalmente elétrico revelado quinta-feira – ilustra um apetite crescente entre as montadoras globais em trazer IA generativa para seus veículos.

A montadora disse que o Kia EV3 contará com um novo assistente de voz desenvolvido Bate-papoGPT, o chatbot de IA de geração de texto desenvolvido pela OpenAI. O Kia EV3 e o seu assistente de IA chegarão ao mercado pela primeira vez na Coreia em julho de 2024, seguido pela Europa no segundo semestre do ano. A Kia espera expandir as vendas do Kia EV3 para outras regiões após o lançamento europeu. O Kia EV3 eventualmente chegará aos Estados Unidos, embora a montadora não tenha fornecido uma data.

Este não é, no entanto, um assunto puro da OpenAI. A Kia também participou do desenvolvimento do assistente de voz.

Pablo Martinez, chefe de design de experiência do cliente da Kia, explicou que embora o modelo de linguagem grande (LLM) por trás do assistente de IA seja o ChatGPT da OpenAI, ele foi “fortemente modificado” e personalizado pela montadora. Estas modificações foram feitas para permitir aos clientes planear viagens, controlar o veículo e encontrar entretenimento, incluindo música ou jogos, tudo através do novo assistente Kia, disse Martinez durante uma coletiva de imprensa antes da revelação.

Créditos da imagem: Kia

Assistentes de voz em veículos não são novidade. Mas a experiência para os motoristas varia entre inútil e meu Deus, por que estou gritando com meu carro. Fabricantes de automóveis como BMW, Kia, Mercedes-Benz e Volkswagen argumentaram que a IA generativa tornará os assistentes de voz muito mais capazes e lhes dará a capacidade de interagir com motoristas e passageiros de uma forma natural.

As conversas sobre a aplicação de IA generativa a veículos aumentaram no ano passado, à medida que o tópico – e a startup OpenAI – atingiram a estratosfera do hype. Mercedes-Benz adicionou o AI-bot conversacional ao seu sistema de infoentretenimento MBUX em junho de 2023. Em janeiro, as montadoras BMW e Volkswagen estavam mostrando a tecnologia na feira de tecnologia CES em Las Vegas.

O chamado Kia Assistant estreou em abril no Kia K4, o novo sedã compacto movido a gasolina que chegará ao mercado neste verão. O Kia EV3 é o primeiro veículo totalmente elétrico do portfólio da empresa a receber o novo assistente baseado em IA.

Fonte: techcrunch.com

Continue lendo

Top

Social Media Auto Publish Powered By : XYZScripts.com