Conecte-se com a gente!

TECNOLOGIA

Pergunte à Sophie: Quais são as opções para substituir um visto L-1A?

Sophie Alcorn, advogadaautor e fundador da Lei de Imigração de Alcorn no Vale do Silício, Califórnia, é um premiado advogado especialista certificado em direito de imigração e nacionalidade pelo Conselho Estadual de Especialização Jurídica. Sophie é apaixonada por transcender fronteiras, expandir oportunidades e conectar o mundo, praticando leis de imigração compassivas, visionárias e especializadas. Conecte-se com Sofia sobre LinkedIn e Twitter.

Os membros do TechCrunch+ recebem acesso às colunas semanais “Pergunte à Sophie”; use o código promocional ALCORN para comprar uma assinatura de um ou dois anos com 50% de desconto.


Querida Sofia,

Um dos nossos executivos essenciais tem vivido e trabalhado nos EUA com um visto L-1A nos últimos dois anos. Em janeiro, a empresa o patrocinou para um green card EB-1C.

Dado que a categoria EB-1 ainda não é válida para a Índia, onde ele nasceu, estamos preocupados que seu visto L-1A acabe antes de ele receber seu green card.

O que você sugere?

– Planejador de Princípios

Caro Princípio,

Agradecemos seu contato! Eu cuido de você. Muitos empregadores como você, que patrocinam talentos internacionais para obter green cards baseados em emprego para mantê-los nos Estados Unidos, estão enfrentando obstáculos devido a limites numéricos desatualizados e limites injustos por país de nascimento.

É hora do Congresso aumentar os limites numéricos e eliminar os limites por país de nascimento!

O Congresso precisa agir!

Até 2030, cerca de 1,7 milhão de indivíduos nascidos na Índia estarão esperando por um EB-1 (EB-1A, EB-1B, EB-1C), EB-2 (ambos EB-2 e EB-2 NIW) ou EB -3 categorias de green card, de acordo com um Relatório de 2020 pelo Serviço de Pesquisa do Congresso.

Em junho de 2023, o último dados disponível, 10.059 indivíduos que nasceram na Índia tiveram sua petição de green card EB-1 I-140 aprovada, mas estão apenas aguardando que um número de green card fique disponível, de acordo com os Serviços de Cidadania e Imigração dos EUA (USCIS). Pelo menos 47.190 green cards baseados no emprego foram atribuídos à categoria EB-1.

Dado o limite de 7% do país, apenas 3.303 green cards EB-1 estarão disponíveis para indivíduos que nasceram na Índia, a menos que os números de green card EB-4 e EB-5 (cerca de 11.715 green cards estejam disponíveis em cada EB-4 e EB- 5) que não são utilizados são movidos para a categoria de green card EB-1.

Como existe uma data limite para todos os países na categoria EB-4, é improvável que haja números não utilizados nessa categoria. No entanto, existem potencialmente cerca de 10.000 números de green card EB-5 que poderiam passar para a categoria EB-1, e estes seriam disponibilizados aos indivíduos com as primeiras datas de prioridade, que tendem a ser aqueles nascidos na Índia.

Agora, deixe-me mergulhar na sua pergunta.

A permanência máxima em um L-1A é de sete anos

Fonte: techcrunch.com

Continue lendo
Clique para comentar

Deixe sua resposta

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

TECNOLOGIA

A compactação de memória em escala de nanossegundos do ZeroPoint poderia domar a infraestrutura de IA que consome muita energia

A IA é apenas o mercado mais recente e mais ávido para computação de alto desempenho, e os arquitetos de sistemas estão trabalhando sem parar para extrair cada gota de desempenho de cada watt. Startup sueca Zero pontosmunido de 5 milhões de euros (5,5 milhões de dólares) em novos financiamentos, quer ajudá-los com uma nova técnica de compressão de memória na escala de nanossegundos – e sim, é exatamente tão complicado quanto parece.

O conceito é este: compactar dados sem perdas antes de entrarem na RAM e descompactá-los depois, ampliando efetivamente o canal de memória em 50% ou mais apenas adicionando um pequeno pedaço ao chip.

A compressão é, obviamente, uma tecnologia fundamental na computação; como apontou o CEO da ZeroPoint, Klas Moreau (à esquerda na imagem acima, com os cofundadores Per Stenström e Angelos Arelakis): “Hoje, não armazenaríamos dados no disco rígido sem compactá-los. A pesquisa sugere que 70% dos dados na memória são desnecessários. Então, por que não comprimimos na memória?”

A resposta é que não temos tempo. Compactar um arquivo grande para armazenamento (ou codificá-lo, como dizemos quando é vídeo ou áudio) é uma tarefa que pode levar segundos, minutos ou horas dependendo de suas necessidades. Mas os dados passam pela memória em uma pequena fração de segundo, entrando e saindo tão rápido quanto a CPU consegue. O atraso de um único microssegundo, para remover os bits “desnecessários” de uma parcela de dados que vai para o sistema de memória, seria catastrófico para o desempenho.

A memória não avança necessariamente na mesma proporção que a velocidade da CPU, embora as duas (junto com muitos outros componentes do chip) estejam inextricavelmente conectadas. Se o processador for muito lento, os dados serão armazenados na memória – e se a memória for muito lenta, o processador desperdiçará ciclos esperando pela próxima pilha de bits. Tudo funciona em conjunto, como você poderia esperar.

Embora a compactação de memória super-rápida tenha sido demonstrada, ela resulta em um segundo problema: essencialmente, você tem que descompactar os dados tão rápido quanto os comprimiu, retornando-os ao seu estado original, ou o sistema não terá ideia de como. para lidar com isso. Portanto, a menos que você converta toda a sua arquitetura para esse novo modo de memória compactada, será inútil.

ZeroPoint afirma ter resolvido esses dois problemas com compactação de memória hiper-rápida e de baixo nível que não requer mudanças reais no resto do sistema de computação. Você adiciona a tecnologia deles ao seu chip e é como se você tivesse duplicado sua memória.

Embora os detalhes essenciais provavelmente só sejam inteligíveis para pessoas nesta área, os princípios básicos são fáceis de entender para os não iniciados, como Moreau provou quando me explicou.

“O que fazemos é pegar uma quantidade muito pequena de dados – uma linha de cache, às vezes de 512 bits – e identificar padrões nela”, disse ele. “É da natureza dos dados, eles são preenchidos com informações não tão eficientes, informações que estão escassamente localizadas. Depende dos dados: quanto mais aleatório for, menos compressível será. Mas quando olhamos para a maioria das cargas de dados, vemos que estamos na faixa de 2 a 4 vezes [more data throughput than before].”

Não é assim que a memória realmente parece. Mas você entendeu.
Créditos da imagem: Zero pontos

Não é nenhum segredo que a memória pode ser compactada. Moreau disse que todos na computação em grande escala conhecem a possibilidade (ele me mostrou um artigo de 2012 demonstrando isso), mas mais ou menos a descartaram como acadêmica, impossível de implementar em escala. Mas o ZeroPoint, disse ele, resolveu os problemas de compactação – reorganizando os dados compactados para serem ainda mais eficientes – e de transparência, de modo que a tecnologia não apenas funciona, mas funciona perfeitamente nos sistemas existentes. E tudo acontece em poucos nanossegundos.

“A maioria das tecnologias de compressão, tanto de software quanto de hardware, são da ordem de milhares de nanossegundos. CXL [compute express link, a high-speed interconnect standard] pode reduzir esse número para centenas”, disse Moreau. “Podemos reduzir para 3 ou 4.”

Aqui está o CTO Angelos Arelakis explicando do seu jeito:

A estreia do ZeroPoint é certamente oportuna, com empresas de todo o mundo em busca de uma computação mais rápida e barata para treinar mais uma geração de modelos de IA. A maioria dos hiperscaladores (se devemos chamá-los assim) está interessada em qualquer tecnologia que possa fornecer mais energia por watt ou permitir que reduzam um pouco a conta de energia.

A principal advertência para tudo isso é simplesmente que, como mencionado, isso precisa ser incluído no chip e integrado desde o início – você não pode simplesmente colocar um dongle ZeroPoint no rack. Para esse fim, a empresa está trabalhando com fabricantes de chips e integradores de sistemas para licenciar a técnica e o design de hardware para chips padrão para computação de alto desempenho.

É claro que são suas Nvidias e Intels, mas cada vez mais também empresas como Meta, Google e Apple, que projetaram hardware personalizado para executar internamente sua IA e outras tarefas de alto custo. A ZeroPoint está posicionando sua tecnologia como uma economia de custos, mas não como um prêmio: é concebível que, ao duplicar efetivamente a memória, a tecnologia se pague em pouco tempo.

A rodada A de € 5 milhões recém-fechada foi liderada pela Matterwave Ventures, com a Industrifonden atuando como líder nórdica local, e os investidores existentes Climentum Capital e Chalmers Ventures também contribuindo.

Moreau disse que o dinheiro deverá permitir-lhes expandir-se para os mercados dos EUA, bem como duplicar a aposta nos mercados suecos que já procuram.

Fonte: techcrunch.com

Continue lendo

TECNOLOGIA

Google construirá primeiro cabo submarino de fibra óptica conectando a África à Austrália

Google é preparando-se para construir qual será o primeiro cabo submarino de fibra óptica conectando os continentes da África e da Austrália.

A notícia chega no momento em que os principais hiperescaladores de nuvem lutam por dólares comerciais, com o Google tentando alcançar a AWS e o Azure da Microsoft.

Notavelmente, o anúncio do Google segue interrupções generalizadas em toda a África Oriental, que foram atribuídos a cabos submarinos defeituosos. E para uma empresa que depende de conectividade resiliente para fornecer os seus serviços aos consumidores e às empresas, a Google está claramente a tentar capitalizar isso para se posicionar como a solução.

Apelidado de “Umoja”, o seu novo cabo começa no Quénia e passa por vários países, incluindo o Uganda, o Ruanda, a República Democrática do Congo, a Zâmbia e o Zimbabué, antes de concluir a sua viagem terrestre na África do Sul – nomeadamente o lar dos primeiros dados africanos do Google. regiões centrais, que está operacional em Joanesburgo desde o início deste ano.

A parte terrestre da rota já está completa, confirmou o Google ao TechCrunch, que disse trabalhar com uma empresa chamada Tecnologias Inteligentes Líquidas para esse segmento. No entanto, o trabalho de canalização do cabo através do Oceano Índico até Perth, na Austrália, já está em andamento.

“O Umoja permitirá que os países africanos se conectem de forma mais confiável entre si e com o resto do mundo”, disse Brian Quigley, vice-presidente do Google Cloud para infraestrutura de rede global. disse em uma postagem no blog hoje. “Estabelecer uma nova rota distinta das rotas de conectividade existentes é fundamental para manter uma rede resiliente para uma região que historicamente sofreu interrupções de alto impacto.”

Cabo Umoja do Google
Créditos da imagem: Google

centenas de cabos abrangendo os mares, oceanos e hidrovias do mundo, com Big Tech incluindo Google, Meta, Microsoft e Amazon reivindicando um participação cada vez maior na infraestrutura. A razão é simples: quanto mais cabos e centros de dados existirem, melhor qualidade de serviço estas empresas podem oferecer aos seus clientes, seja fluxos de YouTube de menor latência ou transferências de dados mais rápidas para empresas investidas na nuvem.

A rota de cabo submarino mais próxima do que o Google está propondo com o Umoja seria o Cabo Omã Austrália (OAC) que conecta Omã a Perth, inaugurado em 2022. E o próprio Google já investiu em vários projetos de cabeamento centrados na África, incluindo Equiano que liga Portugal com a Nigéria e a África do Sul.

No início deste ano, o Google também anunciou planos para construir o que será um dos primeiros cabos submarinos conectando a América do Sul à Ásia-Pacífico, indo do Chile à Austrália através da Polinésia Francesa.

Embora o Google não tenha fornecido um prazo específico para a conclusão do Umoja, um porta-voz disse ao TechCrunch que a construção de um cabo submarino típico, desde o planejamento até a entrada em operação, leva cerca de três anos. Portanto, podemos, talvez, esperar que este cabo esteja pronto para o horário nobre por volta de 2026.

Fonte: techcrunch.com

Continue lendo

TECNOLOGIA

O novo Kia EV3 terá um assistente de IA com DNA ChatGPT

O Kia EV3 – o novo SUV compacto totalmente elétrico revelado quinta-feira – ilustra um apetite crescente entre as montadoras globais em trazer IA generativa para seus veículos.

A montadora disse que o Kia EV3 contará com um novo assistente de voz desenvolvido Bate-papoGPT, o chatbot de IA de geração de texto desenvolvido pela OpenAI. O Kia EV3 e o seu assistente de IA chegarão ao mercado pela primeira vez na Coreia em julho de 2024, seguido pela Europa no segundo semestre do ano. A Kia espera expandir as vendas do Kia EV3 para outras regiões após o lançamento europeu. O Kia EV3 eventualmente chegará aos Estados Unidos, embora a montadora não tenha fornecido uma data.

Este não é, no entanto, um assunto puro da OpenAI. A Kia também participou do desenvolvimento do assistente de voz.

Pablo Martinez, chefe de design de experiência do cliente da Kia, explicou que embora o modelo de linguagem grande (LLM) por trás do assistente de IA seja o ChatGPT da OpenAI, ele foi “fortemente modificado” e personalizado pela montadora. Estas modificações foram feitas para permitir aos clientes planear viagens, controlar o veículo e encontrar entretenimento, incluindo música ou jogos, tudo através do novo assistente Kia, disse Martinez durante uma coletiva de imprensa antes da revelação.

Créditos da imagem: Kia

Assistentes de voz em veículos não são novidade. Mas a experiência para os motoristas varia entre inútil e meu Deus, por que estou gritando com meu carro. Fabricantes de automóveis como BMW, Kia, Mercedes-Benz e Volkswagen argumentaram que a IA generativa tornará os assistentes de voz muito mais capazes e lhes dará a capacidade de interagir com motoristas e passageiros de uma forma natural.

As conversas sobre a aplicação de IA generativa a veículos aumentaram no ano passado, à medida que o tópico – e a startup OpenAI – atingiram a estratosfera do hype. Mercedes-Benz adicionou o AI-bot conversacional ao seu sistema de infoentretenimento MBUX em junho de 2023. Em janeiro, as montadoras BMW e Volkswagen estavam mostrando a tecnologia na feira de tecnologia CES em Las Vegas.

O chamado Kia Assistant estreou em abril no Kia K4, o novo sedã compacto movido a gasolina que chegará ao mercado neste verão. O Kia EV3 é o primeiro veículo totalmente elétrico do portfólio da empresa a receber o novo assistente baseado em IA.

Fonte: techcrunch.com

Continue lendo

Top

Social Media Auto Publish Powered By : XYZScripts.com