Conecte-se com a gente!

TECNOLOGIA

Writer arrecada US$ 100 milhões por sua plataforma de IA generativa com foco empresarial

Os investidores ainda não se cansaram de startups generativas de IA – especialmente aquelas com aplicações empresariais claras.

Caso em questão, Escritorque está desenvolvendo o que descreve como uma plataforma de IA generativa “full-stack” para empresas, anunciou hoje que levantou US$ 100 milhões em uma rodada de financiamento Série B liderada pela ICONIQ Growth com a participação de WndrCo, Balderton Capital e Insight Partners, Aspect Ventures e Clientes escritores Accenture e Vanguard.

Trazendo o total arrecadado do Writer para US$ 126 milhões e avaliando a empresa entre US$ 500 milhões e US$ 750 milhões pós-dinheiro, a nova parcela financiará o desenvolvimento dos modelos de IA de geração de texto “específicos do setor” do Writer, disse o cofundador e CEO May Habib TechCrunch.

“Muitas empresas ainda estão apenas arranhando a superfície da IA ​​generativa, principalmente construindo aplicativos internos do tipo ‘CompanyX-GPT’”, disse Habib por e-mail. “Os casos de uso mais difíceis e impactantes exigem muito mais conhecimento em geração aumentada de recuperação, coleta e limpeza de dados e construção de fluxo de trabalho, e eles estão percebendo que isso representa 90% do trabalho. Essa é a parte que o Writer torna muito mais fácil – e todos os dados, além do modelo de linguagem grande (LLM), podem ser hospedados em uma nuvem privada virtual corporativa, o que o torna viável para as empresas.”

Escritor IA

Os modelos do Writer podem ser conectados à “base de conhecimento” de uma empresa, fornecendo-lhes contexto adicional.

O escritor compete em um campo lotado que inclui não apenas OpenAI e seus rivais de IA de texto generativo, como Antrópico, Laboratórios AI21 e IA Mistralmas plataformas generativas focadas em empresas, como Jaspe, Coerente e Tipo de letra. Todos oferecem ferramentas baseadas em IA para completar – ou gerar inteiramente do zero – documentos que vão desde anúncios até textos para campanhas de e-mail, postagens em blogs, folhetos e sites.

Então, o que diferencia o Writer? Bem, por um lado, ela afirma ter treinado seus modelos de ajuste fino em redação comercial que não é protegida por direitos autorais, um ponto-chave num momento em que o status de direitos autorais de obras geradas por IA nos EUA permanece um tanto nebuloso. Writer também afirma que os seus modelos são “menores” que a média e, portanto, mais “económicos”; transparente no sentido de que os clientes podem inspecionar o código, recursos e dados dos modelos; e nunca treinou com base nos dados do cliente.

Assim como vários concorrentes do Writer, o Writer permite que os clientes conectem seus modelos a fontes de dados de negócios para melhorar sua capacidade de pesquisar, verificar fatos e responder perguntas. Além disso, o Writer permite que as empresas apliquem regras regulatórias, legais e de marca em todos os modelos de sua plataforma.

Esses recursos renderam à Writer “centenas” de clientes, incluindo Intuit, United Healthcare, UiPath, Spotify, L’Oreal, Uber e Accenture. A Writer, com sede em São Francisco e uma equipe de 100 funcionários, afirma ter aumentado as receitas em 10 vezes nos últimos dois anos.

Fonte: techcrunch.com

Continue lendo
Clique para comentar

Deixe sua resposta

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

TECNOLOGIA

A compactação de memória em escala de nanossegundos do ZeroPoint poderia domar a infraestrutura de IA que consome muita energia

A IA é apenas o mercado mais recente e mais ávido para computação de alto desempenho, e os arquitetos de sistemas estão trabalhando sem parar para extrair cada gota de desempenho de cada watt. Startup sueca Zero pontosmunido de 5 milhões de euros (5,5 milhões de dólares) em novos financiamentos, quer ajudá-los com uma nova técnica de compressão de memória na escala de nanossegundos – e sim, é exatamente tão complicado quanto parece.

O conceito é este: compactar dados sem perdas antes de entrarem na RAM e descompactá-los depois, ampliando efetivamente o canal de memória em 50% ou mais apenas adicionando um pequeno pedaço ao chip.

A compressão é, obviamente, uma tecnologia fundamental na computação; como apontou o CEO da ZeroPoint, Klas Moreau (à esquerda na imagem acima, com os cofundadores Per Stenström e Angelos Arelakis): “Hoje, não armazenaríamos dados no disco rígido sem compactá-los. A pesquisa sugere que 70% dos dados na memória são desnecessários. Então, por que não comprimimos na memória?”

A resposta é que não temos tempo. Compactar um arquivo grande para armazenamento (ou codificá-lo, como dizemos quando é vídeo ou áudio) é uma tarefa que pode levar segundos, minutos ou horas dependendo de suas necessidades. Mas os dados passam pela memória em uma pequena fração de segundo, entrando e saindo tão rápido quanto a CPU consegue. O atraso de um único microssegundo, para remover os bits “desnecessários” de uma parcela de dados que vai para o sistema de memória, seria catastrófico para o desempenho.

A memória não avança necessariamente na mesma proporção que a velocidade da CPU, embora as duas (junto com muitos outros componentes do chip) estejam inextricavelmente conectadas. Se o processador for muito lento, os dados serão armazenados na memória – e se a memória for muito lenta, o processador desperdiçará ciclos esperando pela próxima pilha de bits. Tudo funciona em conjunto, como você poderia esperar.

Embora a compactação de memória super-rápida tenha sido demonstrada, ela resulta em um segundo problema: essencialmente, você tem que descompactar os dados tão rápido quanto os comprimiu, retornando-os ao seu estado original, ou o sistema não terá ideia de como. para lidar com isso. Portanto, a menos que você converta toda a sua arquitetura para esse novo modo de memória compactada, será inútil.

ZeroPoint afirma ter resolvido esses dois problemas com compactação de memória hiper-rápida e de baixo nível que não requer mudanças reais no resto do sistema de computação. Você adiciona a tecnologia deles ao seu chip e é como se você tivesse duplicado sua memória.

Embora os detalhes essenciais provavelmente só sejam inteligíveis para pessoas nesta área, os princípios básicos são fáceis de entender para os não iniciados, como Moreau provou quando me explicou.

“O que fazemos é pegar uma quantidade muito pequena de dados – uma linha de cache, às vezes de 512 bits – e identificar padrões nela”, disse ele. “É da natureza dos dados, eles são preenchidos com informações não tão eficientes, informações que estão escassamente localizadas. Depende dos dados: quanto mais aleatório for, menos compressível será. Mas quando olhamos para a maioria das cargas de dados, vemos que estamos na faixa de 2 a 4 vezes [more data throughput than before].”

Não é assim que a memória realmente parece. Mas você entendeu.
Créditos da imagem: Zero pontos

Não é nenhum segredo que a memória pode ser compactada. Moreau disse que todos na computação em grande escala conhecem a possibilidade (ele me mostrou um artigo de 2012 demonstrando isso), mas mais ou menos a descartaram como acadêmica, impossível de implementar em escala. Mas o ZeroPoint, disse ele, resolveu os problemas de compactação – reorganizando os dados compactados para serem ainda mais eficientes – e de transparência, de modo que a tecnologia não apenas funciona, mas funciona perfeitamente nos sistemas existentes. E tudo acontece em poucos nanossegundos.

“A maioria das tecnologias de compressão, tanto de software quanto de hardware, são da ordem de milhares de nanossegundos. CXL [compute express link, a high-speed interconnect standard] pode reduzir esse número para centenas”, disse Moreau. “Podemos reduzir para 3 ou 4.”

Aqui está o CTO Angelos Arelakis explicando do seu jeito:

A estreia do ZeroPoint é certamente oportuna, com empresas de todo o mundo em busca de uma computação mais rápida e barata para treinar mais uma geração de modelos de IA. A maioria dos hiperscaladores (se devemos chamá-los assim) está interessada em qualquer tecnologia que possa fornecer mais energia por watt ou permitir que reduzam um pouco a conta de energia.

A principal advertência para tudo isso é simplesmente que, como mencionado, isso precisa ser incluído no chip e integrado desde o início – você não pode simplesmente colocar um dongle ZeroPoint no rack. Para esse fim, a empresa está trabalhando com fabricantes de chips e integradores de sistemas para licenciar a técnica e o design de hardware para chips padrão para computação de alto desempenho.

É claro que são suas Nvidias e Intels, mas cada vez mais também empresas como Meta, Google e Apple, que projetaram hardware personalizado para executar internamente sua IA e outras tarefas de alto custo. A ZeroPoint está posicionando sua tecnologia como uma economia de custos, mas não como um prêmio: é concebível que, ao duplicar efetivamente a memória, a tecnologia se pague em pouco tempo.

A rodada A de € 5 milhões recém-fechada foi liderada pela Matterwave Ventures, com a Industrifonden atuando como líder nórdica local, e os investidores existentes Climentum Capital e Chalmers Ventures também contribuindo.

Moreau disse que o dinheiro deverá permitir-lhes expandir-se para os mercados dos EUA, bem como duplicar a aposta nos mercados suecos que já procuram.

Fonte: techcrunch.com

Continue lendo

TECNOLOGIA

Google construirá primeiro cabo submarino de fibra óptica conectando a África à Austrália

Google é preparando-se para construir qual será o primeiro cabo submarino de fibra óptica conectando os continentes da África e da Austrália.

A notícia chega no momento em que os principais hiperescaladores de nuvem lutam por dólares comerciais, com o Google tentando alcançar a AWS e o Azure da Microsoft.

Notavelmente, o anúncio do Google segue interrupções generalizadas em toda a África Oriental, que foram atribuídos a cabos submarinos defeituosos. E para uma empresa que depende de conectividade resiliente para fornecer os seus serviços aos consumidores e às empresas, a Google está claramente a tentar capitalizar isso para se posicionar como a solução.

Apelidado de “Umoja”, o seu novo cabo começa no Quénia e passa por vários países, incluindo o Uganda, o Ruanda, a República Democrática do Congo, a Zâmbia e o Zimbabué, antes de concluir a sua viagem terrestre na África do Sul – nomeadamente o lar dos primeiros dados africanos do Google. regiões centrais, que está operacional em Joanesburgo desde o início deste ano.

A parte terrestre da rota já está completa, confirmou o Google ao TechCrunch, que disse trabalhar com uma empresa chamada Tecnologias Inteligentes Líquidas para esse segmento. No entanto, o trabalho de canalização do cabo através do Oceano Índico até Perth, na Austrália, já está em andamento.

“O Umoja permitirá que os países africanos se conectem de forma mais confiável entre si e com o resto do mundo”, disse Brian Quigley, vice-presidente do Google Cloud para infraestrutura de rede global. disse em uma postagem no blog hoje. “Estabelecer uma nova rota distinta das rotas de conectividade existentes é fundamental para manter uma rede resiliente para uma região que historicamente sofreu interrupções de alto impacto.”

Cabo Umoja do Google
Créditos da imagem: Google

centenas de cabos abrangendo os mares, oceanos e hidrovias do mundo, com Big Tech incluindo Google, Meta, Microsoft e Amazon reivindicando um participação cada vez maior na infraestrutura. A razão é simples: quanto mais cabos e centros de dados existirem, melhor qualidade de serviço estas empresas podem oferecer aos seus clientes, seja fluxos de YouTube de menor latência ou transferências de dados mais rápidas para empresas investidas na nuvem.

A rota de cabo submarino mais próxima do que o Google está propondo com o Umoja seria o Cabo Omã Austrália (OAC) que conecta Omã a Perth, inaugurado em 2022. E o próprio Google já investiu em vários projetos de cabeamento centrados na África, incluindo Equiano que liga Portugal com a Nigéria e a África do Sul.

No início deste ano, o Google também anunciou planos para construir o que será um dos primeiros cabos submarinos conectando a América do Sul à Ásia-Pacífico, indo do Chile à Austrália através da Polinésia Francesa.

Embora o Google não tenha fornecido um prazo específico para a conclusão do Umoja, um porta-voz disse ao TechCrunch que a construção de um cabo submarino típico, desde o planejamento até a entrada em operação, leva cerca de três anos. Portanto, podemos, talvez, esperar que este cabo esteja pronto para o horário nobre por volta de 2026.

Fonte: techcrunch.com

Continue lendo

TECNOLOGIA

O novo Kia EV3 terá um assistente de IA com DNA ChatGPT

O Kia EV3 – o novo SUV compacto totalmente elétrico revelado quinta-feira – ilustra um apetite crescente entre as montadoras globais em trazer IA generativa para seus veículos.

A montadora disse que o Kia EV3 contará com um novo assistente de voz desenvolvido Bate-papoGPT, o chatbot de IA de geração de texto desenvolvido pela OpenAI. O Kia EV3 e o seu assistente de IA chegarão ao mercado pela primeira vez na Coreia em julho de 2024, seguido pela Europa no segundo semestre do ano. A Kia espera expandir as vendas do Kia EV3 para outras regiões após o lançamento europeu. O Kia EV3 eventualmente chegará aos Estados Unidos, embora a montadora não tenha fornecido uma data.

Este não é, no entanto, um assunto puro da OpenAI. A Kia também participou do desenvolvimento do assistente de voz.

Pablo Martinez, chefe de design de experiência do cliente da Kia, explicou que embora o modelo de linguagem grande (LLM) por trás do assistente de IA seja o ChatGPT da OpenAI, ele foi “fortemente modificado” e personalizado pela montadora. Estas modificações foram feitas para permitir aos clientes planear viagens, controlar o veículo e encontrar entretenimento, incluindo música ou jogos, tudo através do novo assistente Kia, disse Martinez durante uma coletiva de imprensa antes da revelação.

Créditos da imagem: Kia

Assistentes de voz em veículos não são novidade. Mas a experiência para os motoristas varia entre inútil e meu Deus, por que estou gritando com meu carro. Fabricantes de automóveis como BMW, Kia, Mercedes-Benz e Volkswagen argumentaram que a IA generativa tornará os assistentes de voz muito mais capazes e lhes dará a capacidade de interagir com motoristas e passageiros de uma forma natural.

As conversas sobre a aplicação de IA generativa a veículos aumentaram no ano passado, à medida que o tópico – e a startup OpenAI – atingiram a estratosfera do hype. Mercedes-Benz adicionou o AI-bot conversacional ao seu sistema de infoentretenimento MBUX em junho de 2023. Em janeiro, as montadoras BMW e Volkswagen estavam mostrando a tecnologia na feira de tecnologia CES em Las Vegas.

O chamado Kia Assistant estreou em abril no Kia K4, o novo sedã compacto movido a gasolina que chegará ao mercado neste verão. O Kia EV3 é o primeiro veículo totalmente elétrico do portfólio da empresa a receber o novo assistente baseado em IA.

Fonte: techcrunch.com

Continue lendo

Top

Social Media Auto Publish Powered By : XYZScripts.com