Conecte-se com a gente!

TECNOLOGIA

ScyllaDB levanta US$ 43 milhões para dimensionar sua plataforma de banco de dados NoSQL

Parece que os investidores têm apetite por bancos de dados.

Hoje, ScyllaDBuma startup que desenvolve tecnologia de banco de dados para cargas de trabalho de alto rendimento e baixa latência, anunciou que levantou US$ 43 milhões em uma rodada de financiamento liderada pela Eight Roads Ventures com a participação da AB Private Credit Investors, AllianceBernstein, parceiros TLV, Magma Ventures e Qualcomm Ventures.

O novo dinheiro será aplicado para “acelerar” o impulso do ScyllaDB e expandir o tamanho de sua equipe de 168 pessoas, de acordo com o cofundador e CEO Dor Laor.

“Os disruptores de hoje estão ingerindo uma quantidade sem precedentes de dados e aproveitando-os para oferecer experiências de usuário diferenciadas que transformam os mercados e destroem líderes legados”, disse Laor ao TechCrunch em uma entrevista por e-mail. “Os dados estão sendo enriquecidos, limpos, transmitidos, alimentados em pipelines de IA e de aprendizado de máquina, replicados e armazenados em cache de múltiplas fontes. É por isso que é mais importante do que nunca ter um banco de dados à altura da tarefa.”

ScyllaDB é conhecido como banco de dados NoSQL, que — diferentemente dos bancos de dados relacionais que já foram dominantes na empresa — fornece mecanismos para armazenamento e recuperação de dados que não dependem de um modelo de “relações tabulares”. Num modelo tabular, um relacionamento é uma conexão entre duas tabelas de dados. Mas com um banco de dados NoSQL, os relacionamentos não precisam seguir esse esquema — oferecendo maior flexibilidade de engenharia e, em alguns casos, melhor desempenho.

Os bancos de dados NoSQL são comumente usados ​​para aplicações como veiculação de anúncios, IA e aprendizado de máquina, mecanismos de recomendação e personalização, detecção de fraudes e análise de dados de dispositivos da Internet das Coisas.

De acordo com um 2022 enquete segundo Ventana, quase um quarto (22%) das organizações está usando bancos de dados NoSQL em produção atualmente, enquanto mais de um terço (34%) planeja adotar bancos de dados NoSQL dentro de dois anos ou avaliando seu uso potencial. E espera-se que o mercado NoSQL cresça para US$ 35,7 bilhões até 2028, acima dos US$ 7,3 bilhões em 2022, afirma o Grupo IMARC. relatórios.

Agora, o ScyllaDB não é o único fornecedor de NoSQL – longe disso. Há ArangoDB, Redis Labs e Crate.io, para citar alguns, sem mencionar jogadores maiores como MongoDB, DynamoDB da Amazon e Couchbase.

Mas o ScyllaDB afirma que sua tecnologia oferece vantagens arquitetônicas, como a capacidade de realizar milhões de operações por segundo com latência de “milissegundos de um dígito”. Executando em várias nuvens, em uma configuração de nuvem híbrida ou no local, o ScyllaDB ajusta automaticamente o desempenho de E/S e CPU com priorização de carga de trabalho, que coloca as cargas de trabalho em um único cluster de servidor.

Essas reivindicações e capacidades foram suficientes para conquistar clientes, evidentemente. ScyllaDB afirma que seu banco de dados é agora usado por mais de 400 empresas, incluindo Discord, Epic Games e Palo Alto Networks, e que a receita cresceu 800% desde a fundação da empresa em dezembro de 2012.

“Em todos os setores, as equipes de P&D estão percebendo cada vez mais que a arquitetura de banco de dados dramaticamente diferente do ScyllaDB oferece melhor desempenho e escalabilidade horizontal para cargas de trabalho com uso intensivo de dados”, disse Laor. “O ScyllaDB foi projetado para ajudar equipes em rápido crescimento e evolução a oferecer experiências de usuário extremamente rápidas em escala extrema… A arquitetura exclusiva do ScyllaDB aproveita ao máximo os recursos modernos da nuvem, proporcionando eficiência e desempenho de preço impressionantes.”

Até o momento, o ScyllaDB levantou US$ 103 milhões em capital de risco.

Fonte: techcrunch.com

Continue lendo
Clique para comentar

Deixe sua resposta

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

TECNOLOGIA

A compactação de memória em escala de nanossegundos do ZeroPoint poderia domar a infraestrutura de IA que consome muita energia

A IA é apenas o mercado mais recente e mais ávido para computação de alto desempenho, e os arquitetos de sistemas estão trabalhando sem parar para extrair cada gota de desempenho de cada watt. Startup sueca Zero pontosmunido de 5 milhões de euros (5,5 milhões de dólares) em novos financiamentos, quer ajudá-los com uma nova técnica de compressão de memória na escala de nanossegundos – e sim, é exatamente tão complicado quanto parece.

O conceito é este: compactar dados sem perdas antes de entrarem na RAM e descompactá-los depois, ampliando efetivamente o canal de memória em 50% ou mais apenas adicionando um pequeno pedaço ao chip.

A compressão é, obviamente, uma tecnologia fundamental na computação; como apontou o CEO da ZeroPoint, Klas Moreau (à esquerda na imagem acima, com os cofundadores Per Stenström e Angelos Arelakis): “Hoje, não armazenaríamos dados no disco rígido sem compactá-los. A pesquisa sugere que 70% dos dados na memória são desnecessários. Então, por que não comprimimos na memória?”

A resposta é que não temos tempo. Compactar um arquivo grande para armazenamento (ou codificá-lo, como dizemos quando é vídeo ou áudio) é uma tarefa que pode levar segundos, minutos ou horas dependendo de suas necessidades. Mas os dados passam pela memória em uma pequena fração de segundo, entrando e saindo tão rápido quanto a CPU consegue. O atraso de um único microssegundo, para remover os bits “desnecessários” de uma parcela de dados que vai para o sistema de memória, seria catastrófico para o desempenho.

A memória não avança necessariamente na mesma proporção que a velocidade da CPU, embora as duas (junto com muitos outros componentes do chip) estejam inextricavelmente conectadas. Se o processador for muito lento, os dados serão armazenados na memória – e se a memória for muito lenta, o processador desperdiçará ciclos esperando pela próxima pilha de bits. Tudo funciona em conjunto, como você poderia esperar.

Embora a compactação de memória super-rápida tenha sido demonstrada, ela resulta em um segundo problema: essencialmente, você tem que descompactar os dados tão rápido quanto os comprimiu, retornando-os ao seu estado original, ou o sistema não terá ideia de como. para lidar com isso. Portanto, a menos que você converta toda a sua arquitetura para esse novo modo de memória compactada, será inútil.

ZeroPoint afirma ter resolvido esses dois problemas com compactação de memória hiper-rápida e de baixo nível que não requer mudanças reais no resto do sistema de computação. Você adiciona a tecnologia deles ao seu chip e é como se você tivesse duplicado sua memória.

Embora os detalhes essenciais provavelmente só sejam inteligíveis para pessoas nesta área, os princípios básicos são fáceis de entender para os não iniciados, como Moreau provou quando me explicou.

“O que fazemos é pegar uma quantidade muito pequena de dados – uma linha de cache, às vezes de 512 bits – e identificar padrões nela”, disse ele. “É da natureza dos dados, eles são preenchidos com informações não tão eficientes, informações que estão escassamente localizadas. Depende dos dados: quanto mais aleatório for, menos compressível será. Mas quando olhamos para a maioria das cargas de dados, vemos que estamos na faixa de 2 a 4 vezes [more data throughput than before].”

Não é assim que a memória realmente parece. Mas você entendeu.
Créditos da imagem: Zero pontos

Não é nenhum segredo que a memória pode ser compactada. Moreau disse que todos na computação em grande escala conhecem a possibilidade (ele me mostrou um artigo de 2012 demonstrando isso), mas mais ou menos a descartaram como acadêmica, impossível de implementar em escala. Mas o ZeroPoint, disse ele, resolveu os problemas de compactação – reorganizando os dados compactados para serem ainda mais eficientes – e de transparência, de modo que a tecnologia não apenas funciona, mas funciona perfeitamente nos sistemas existentes. E tudo acontece em poucos nanossegundos.

“A maioria das tecnologias de compressão, tanto de software quanto de hardware, são da ordem de milhares de nanossegundos. CXL [compute express link, a high-speed interconnect standard] pode reduzir esse número para centenas”, disse Moreau. “Podemos reduzir para 3 ou 4.”

Aqui está o CTO Angelos Arelakis explicando do seu jeito:

A estreia do ZeroPoint é certamente oportuna, com empresas de todo o mundo em busca de uma computação mais rápida e barata para treinar mais uma geração de modelos de IA. A maioria dos hiperscaladores (se devemos chamá-los assim) está interessada em qualquer tecnologia que possa fornecer mais energia por watt ou permitir que reduzam um pouco a conta de energia.

A principal advertência para tudo isso é simplesmente que, como mencionado, isso precisa ser incluído no chip e integrado desde o início – você não pode simplesmente colocar um dongle ZeroPoint no rack. Para esse fim, a empresa está trabalhando com fabricantes de chips e integradores de sistemas para licenciar a técnica e o design de hardware para chips padrão para computação de alto desempenho.

É claro que são suas Nvidias e Intels, mas cada vez mais também empresas como Meta, Google e Apple, que projetaram hardware personalizado para executar internamente sua IA e outras tarefas de alto custo. A ZeroPoint está posicionando sua tecnologia como uma economia de custos, mas não como um prêmio: é concebível que, ao duplicar efetivamente a memória, a tecnologia se pague em pouco tempo.

A rodada A de € 5 milhões recém-fechada foi liderada pela Matterwave Ventures, com a Industrifonden atuando como líder nórdica local, e os investidores existentes Climentum Capital e Chalmers Ventures também contribuindo.

Moreau disse que o dinheiro deverá permitir-lhes expandir-se para os mercados dos EUA, bem como duplicar a aposta nos mercados suecos que já procuram.

Fonte: techcrunch.com

Continue lendo

TECNOLOGIA

Google construirá primeiro cabo submarino de fibra óptica conectando a África à Austrália

Google é preparando-se para construir qual será o primeiro cabo submarino de fibra óptica conectando os continentes da África e da Austrália.

A notícia chega no momento em que os principais hiperescaladores de nuvem lutam por dólares comerciais, com o Google tentando alcançar a AWS e o Azure da Microsoft.

Notavelmente, o anúncio do Google segue interrupções generalizadas em toda a África Oriental, que foram atribuídos a cabos submarinos defeituosos. E para uma empresa que depende de conectividade resiliente para fornecer os seus serviços aos consumidores e às empresas, a Google está claramente a tentar capitalizar isso para se posicionar como a solução.

Apelidado de “Umoja”, o seu novo cabo começa no Quénia e passa por vários países, incluindo o Uganda, o Ruanda, a República Democrática do Congo, a Zâmbia e o Zimbabué, antes de concluir a sua viagem terrestre na África do Sul – nomeadamente o lar dos primeiros dados africanos do Google. regiões centrais, que está operacional em Joanesburgo desde o início deste ano.

A parte terrestre da rota já está completa, confirmou o Google ao TechCrunch, que disse trabalhar com uma empresa chamada Tecnologias Inteligentes Líquidas para esse segmento. No entanto, o trabalho de canalização do cabo através do Oceano Índico até Perth, na Austrália, já está em andamento.

“O Umoja permitirá que os países africanos se conectem de forma mais confiável entre si e com o resto do mundo”, disse Brian Quigley, vice-presidente do Google Cloud para infraestrutura de rede global. disse em uma postagem no blog hoje. “Estabelecer uma nova rota distinta das rotas de conectividade existentes é fundamental para manter uma rede resiliente para uma região que historicamente sofreu interrupções de alto impacto.”

Cabo Umoja do Google
Créditos da imagem: Google

centenas de cabos abrangendo os mares, oceanos e hidrovias do mundo, com Big Tech incluindo Google, Meta, Microsoft e Amazon reivindicando um participação cada vez maior na infraestrutura. A razão é simples: quanto mais cabos e centros de dados existirem, melhor qualidade de serviço estas empresas podem oferecer aos seus clientes, seja fluxos de YouTube de menor latência ou transferências de dados mais rápidas para empresas investidas na nuvem.

A rota de cabo submarino mais próxima do que o Google está propondo com o Umoja seria o Cabo Omã Austrália (OAC) que conecta Omã a Perth, inaugurado em 2022. E o próprio Google já investiu em vários projetos de cabeamento centrados na África, incluindo Equiano que liga Portugal com a Nigéria e a África do Sul.

No início deste ano, o Google também anunciou planos para construir o que será um dos primeiros cabos submarinos conectando a América do Sul à Ásia-Pacífico, indo do Chile à Austrália através da Polinésia Francesa.

Embora o Google não tenha fornecido um prazo específico para a conclusão do Umoja, um porta-voz disse ao TechCrunch que a construção de um cabo submarino típico, desde o planejamento até a entrada em operação, leva cerca de três anos. Portanto, podemos, talvez, esperar que este cabo esteja pronto para o horário nobre por volta de 2026.

Fonte: techcrunch.com

Continue lendo

TECNOLOGIA

O novo Kia EV3 terá um assistente de IA com DNA ChatGPT

O Kia EV3 – o novo SUV compacto totalmente elétrico revelado quinta-feira – ilustra um apetite crescente entre as montadoras globais em trazer IA generativa para seus veículos.

A montadora disse que o Kia EV3 contará com um novo assistente de voz desenvolvido Bate-papoGPT, o chatbot de IA de geração de texto desenvolvido pela OpenAI. O Kia EV3 e o seu assistente de IA chegarão ao mercado pela primeira vez na Coreia em julho de 2024, seguido pela Europa no segundo semestre do ano. A Kia espera expandir as vendas do Kia EV3 para outras regiões após o lançamento europeu. O Kia EV3 eventualmente chegará aos Estados Unidos, embora a montadora não tenha fornecido uma data.

Este não é, no entanto, um assunto puro da OpenAI. A Kia também participou do desenvolvimento do assistente de voz.

Pablo Martinez, chefe de design de experiência do cliente da Kia, explicou que embora o modelo de linguagem grande (LLM) por trás do assistente de IA seja o ChatGPT da OpenAI, ele foi “fortemente modificado” e personalizado pela montadora. Estas modificações foram feitas para permitir aos clientes planear viagens, controlar o veículo e encontrar entretenimento, incluindo música ou jogos, tudo através do novo assistente Kia, disse Martinez durante uma coletiva de imprensa antes da revelação.

Créditos da imagem: Kia

Assistentes de voz em veículos não são novidade. Mas a experiência para os motoristas varia entre inútil e meu Deus, por que estou gritando com meu carro. Fabricantes de automóveis como BMW, Kia, Mercedes-Benz e Volkswagen argumentaram que a IA generativa tornará os assistentes de voz muito mais capazes e lhes dará a capacidade de interagir com motoristas e passageiros de uma forma natural.

As conversas sobre a aplicação de IA generativa a veículos aumentaram no ano passado, à medida que o tópico – e a startup OpenAI – atingiram a estratosfera do hype. Mercedes-Benz adicionou o AI-bot conversacional ao seu sistema de infoentretenimento MBUX em junho de 2023. Em janeiro, as montadoras BMW e Volkswagen estavam mostrando a tecnologia na feira de tecnologia CES em Las Vegas.

O chamado Kia Assistant estreou em abril no Kia K4, o novo sedã compacto movido a gasolina que chegará ao mercado neste verão. O Kia EV3 é o primeiro veículo totalmente elétrico do portfólio da empresa a receber o novo assistente baseado em IA.

Fonte: techcrunch.com

Continue lendo

Top

Social Media Auto Publish Powered By : XYZScripts.com