{"id":7542,"date":"2024-09-21T15:02:58","date_gmt":"2024-09-21T06:02:58","guid":{"rendered":"https:\/\/kia-tips.com\/?p=7542"},"modified":"2024-09-21T15:02:58","modified_gmt":"2024-09-21T06:02:58","slug":"cerebras-ai-future-nvidia-monopoly","status":"publish","type":"post","link":"https:\/\/kia-tips.com\/pt\/ai\/cerebras-ai-future-nvidia-monopoly\/","title":{"rendered":"20x Mais R\u00e1pido em IA: Pode o Chip Gigante da Cerebras Derrubar o Dom\u00ednio da NVIDIA?"},"content":{"rendered":"\r\n<p>O mercado de chips de IA, que impulsionou o recente boom da IA, \u00e9 amplamente dominado pela NVIDIA. Mas agora, a Cerebras Systems, uma venture emergente, est\u00e1 pronta para desafiar esse dom\u00ednio com um chip de IA revolucion\u00e1rio que pode redefinir a maneira como abordamos o aprendizado de IA. Neste artigo, exploraremos a tecnologia inovadora da Cerebras, seu potencial para mudar o futuro da IA e como ela se compara ao dom\u00ednio estabelecido da NVIDIA.<\/p>\r\n\r\n<div class=\"recommendations-simple\">\r\n  <div class=\"recommendations_title\">Resumo do Artigo<\/div>\r\n  <ul>\r\n    <li>Cerebras \u00e9 20 vezes mais r\u00e1pida que a NVIDIA em infer\u00eancia<\/li>\r\n    <li>Ela rivaliza com a NVIDIA no processo de treinamento<\/li>\r\n    <li>A Cerebras pode enfrentar desafios se a NVIDIA avan\u00e7ar com seu software<\/li>\r\n  <\/ul>\r\n<\/div>\r\n\r\n<div class=\"c_box pink_box type_normal\">\r\nEste artigo \u00e9 uma tradu\u00e7\u00e3o do japon\u00eas, ent\u00e3o, por favor, perdoe quaisquer erros de tradu\u00e7\u00e3o ou express\u00f5es culturalmente desconhecidas. Esperamos que ainda forne\u00e7a insights valiosos e informa\u00e7\u00f5es \u00fateis. Agradecemos sua compreens\u00e3o!\r\n<\/div>\r\n\r\n<h2>1. A Ambi\u00e7\u00e3o da Cerebras: Mirando no Dom\u00ednio dos Processos de Aprendizado de IA<\/h2>\r\n\r\n\r\n<img loading=\"lazy\" decoding=\"async\" src=\"https:\/\/kia-tips.com\/wp-content\/uploads\/2024\/09\/ai-kyouiku_watermarked.jpg\" alt=\"\" width=\"728\" height=\"410\" class=\"aligncenter size-full wp-image-7521\" srcset=\"https:\/\/kia-tips.com\/wp-content\/uploads\/2024\/09\/ai-kyouiku_watermarked.jpg 728w, https:\/\/kia-tips.com\/wp-content\/uploads\/2024\/09\/ai-kyouiku_watermarked-300x169.jpg 300w, https:\/\/kia-tips.com\/wp-content\/uploads\/2024\/09\/ai-kyouiku_watermarked-160x90.jpg 160w\" sizes=\"auto, (max-width: 728px) 100vw, 728px\" \/>\r\n<p>A Cerebras \u00e9 uma startup singularmente ambiciosa entre as ventures de chips de IA, focando especificamente em capturar a fatia de mercado do \u201cprocesso de treinamento\u201d de IA, que atualmente \u00e9 dominado pela NVIDIA.<\/p>\r\n\r\n<h4>Suplemento: O Que S\u00e3o os Processos de Treinamento e Infer\u00eancia de IA?<\/h4>\r\n\r\n\r\n<p>O desenvolvimento de IA envolve duas grandes etapas: o &#8220;processo de treinamento&#8221; e o &#8220;processo de infer\u00eancia&#8221;.<\/p>\r\n<ul>\r\n    <li><strong>Processo de Treinamento:<\/strong> Esta fase envolve ensinar o modelo de IA com grandes conjuntos de dados. \u00c9 como estudar livros did\u00e1ticos, exigindo um poder computacional substancial para processar os dados.<\/li>\r\n    <li><strong>Processo de Infer\u00eancia:<\/strong> Aqui, o modelo de IA usa o que aprendeu para prever ou tomar decis\u00f5es com base em novos dados, semelhante a aplicar o conhecimento em exames ou situa\u00e7\u00f5es do mundo real. A velocidade de processamento r\u00e1pido \u00e9 fundamental nesta fase.<\/li>\r\n<\/ul>\r\n\r\n<p>Recentemente, ventures como a Groq desenvolveram chips de IA especificamente para o processo de infer\u00eancia, competindo com as GPUs da NVIDIA.<\/p>\r\n<p>No entanto, quando se trata do processo de treinamento, as GPUs da NVIDIA possuem uma participa\u00e7\u00e3o esmagadora, criando quase um monop\u00f3lio.<\/p>\r\n<p>A Cerebras pretende quebrar esse monop\u00f3lio ao desenvolver um gigantesco chip de IA projetado para o processo de treinamento.<\/p>\r\n\r\n<h2>2. A For\u00e7a da Cerebras: O Gigante Chip &#8220;Wafer Scale Engine<\/h2>\r\n\r\n\r\n<a href=\"https:\/\/kia-tips.com\/wp-content\/uploads\/2024\/09\/cerebras-wse-scaled.jpg\" data-lightbox=\"lightbox\"><img loading=\"lazy\" decoding=\"async\" src=\"https:\/\/kia-tips.com\/wp-content\/uploads\/2024\/09\/cerebras-wse-1024x576.jpg\" alt=\"Cerebras Wafer Scale Engine\" width=\"728\" height=\"410\" class=\"aligncenter size-large wp-image-7477\" srcset=\"https:\/\/kia-tips.com\/wp-content\/uploads\/2024\/09\/cerebras-wse-1024x576.jpg 1024w, https:\/\/kia-tips.com\/wp-content\/uploads\/2024\/09\/cerebras-wse-300x169.jpg 300w, https:\/\/kia-tips.com\/wp-content\/uploads\/2024\/09\/cerebras-wse-768x432.jpg 768w, https:\/\/kia-tips.com\/wp-content\/uploads\/2024\/09\/cerebras-wse-1536x864.jpg 1536w, https:\/\/kia-tips.com\/wp-content\/uploads\/2024\/09\/cerebras-wse-2048x1151.jpg 2048w, https:\/\/kia-tips.com\/wp-content\/uploads\/2024\/09\/cerebras-wse-160x90.jpg 160w\" sizes=\"auto, (max-width: 728px) 100vw, 728px\" \/><\/a>\r\n\r\n<p>A caracter\u00edstica mais marcante da Cerebras \u00e9 seu chip gigantesco, o &#8220;Wafer Scale Engine&#8221;.<\/p>\r\n<p>Enquanto os chips tradicionais s\u00e3o cortados a partir de wafers, a Cerebras usa a wafer inteira como o pr\u00f3prio chip.<\/p>\r\n<p>Isso \u00e9 conhecido como <strong>escala de wafer<\/strong>, permitindo a inclus\u00e3o de 900.000 n\u00facleos de processador, oferecendo um poder computacional que antes era imposs\u00edvel com chips convencionais.<\/p>\r\n\r\n<h2>3. Velocidade de Processamento Excepcional e Simplicidade de Programa\u00e7\u00e3o: Compara\u00e7\u00e3o com as GPUs da NVIDIA<\/h2>\r\n\r\n\r\n<p>O chip da Cerebras oferece uma velocidade de processamento inigual\u00e1vel no treinamento de IA, superando em muito a mais recente GPU da NVIDIA, a H100.<\/p>\r\n<p>Isso \u00e9 conseguido ao reduzir a comunica\u00e7\u00e3o entre chips, eliminando os gargalos vistos em designs tradicionais de chips.<\/p>\r\n<p>Comparado \u00e0s GPUs da NVIDIA, que exigem comunica\u00e7\u00e3o entre chips, o chip da Cerebras oferece velocidades de comunica\u00e7\u00e3o 3.000 vezes mais r\u00e1pidas.<\/p>\r\n<p>Na infer\u00eancia, a Cerebras tamb\u00e9m supera, sendo at\u00e9 20 vezes mais r\u00e1pida que as GPUs da NVIDIA, enquanto reduz o consumo de energia e os custos operacionais gerais.<\/p>\r\n<p>Al\u00e9m disso, a Cerebras criou um sistema onde grandes clusters de seus chips podem ser programados como se fossem uma \u00fanica unidade, simplificando a programa\u00e7\u00e3o de modelos com par\u00e2metros gigantescos em um fator de <strong>24 vezes<\/strong> em compara\u00e7\u00e3o com o uso de GPUs tradicionais.<\/p>\r\n<p>Por exemplo, desenvolver um grande modelo de linguagem como o GPT-4, que cont\u00e9m 1,7 trilh\u00f5es de par\u00e2metros, exigiu mais de 240 desenvolvedores, incluindo 35 especialistas em treinamento distribu\u00eddo e supercomputa\u00e7\u00e3o.<\/p>\r\n<p>Usar chips da Cerebras pode potencialmente reduzir a necessidade desses especialistas, otimizando significativamente os recursos de desenvolvimento.<\/p>\r\n\r\n<h2>4. Desafios dos Chips em Escala de Wafer: Rendimento e Software<\/h2>\r\n\r\n\r\n<p>Embora a inova\u00e7\u00e3o dos chips em escala de wafer seja not\u00e1vel, chips maiores tendem a ter menor rendimento (a propor\u00e7\u00e3o de chips funcionais).<\/p>\r\n<p>No entanto, a Cerebras projetou seu chip para tolerar at\u00e9 5% de seus 900.000 n\u00facleos de processador com defeito, tornando o chip de escala de wafer vi\u00e1vel.<\/p>\r\n<p>Ainda assim, quando os modelos de IA se tornam grandes demais para caber em um \u00fanico chip, eles precisam ser divididos em v\u00e1rios chips, exigindo software para gerenciar essa divis\u00e3o.<\/p>\r\n<p>Se a NVIDIA desenvolver um software semelhante para uma comunica\u00e7\u00e3o suave entre chips, a vantagem da Cerebras pode ser amea\u00e7ada.<\/p>\r\n\r\n<h2>5. A For\u00e7a da NVIDIA: A Facilidade de Programa\u00e7\u00e3o de GPUs com CUDA<\/h2>\r\n\r\n\r\n<img loading=\"lazy\" decoding=\"async\" src=\"https:\/\/kia-tips.com\/wp-content\/uploads\/2024\/09\/nvidia-cuda.jpg\" alt=\"NVIDIA CUDA\" width=\"696\" height=\"338\" class=\"aligncenter size-full wp-image-7487\" srcset=\"https:\/\/kia-tips.com\/wp-content\/uploads\/2024\/09\/nvidia-cuda.jpg 696w, https:\/\/kia-tips.com\/wp-content\/uploads\/2024\/09\/nvidia-cuda-300x146.jpg 300w\" sizes=\"auto, (max-width: 696px) 100vw, 696px\" \/>\r\n<p>A for\u00e7a da NVIDIA reside em sua longa experi\u00eancia com a tecnologia de GPUs e na facilidade de programa\u00e7\u00e3o proporcionada pelo CUDA.<\/p>\r\n<p>CUDA (Compute Unified Device Architecture) \u00e9 uma plataforma desenvolvida pela NVIDIA para simplificar a programa\u00e7\u00e3o paralela em GPUs.<\/p>\r\n<p>Com o CUDA, os desenvolvedores podem escrever programas em linguagens familiares como C++, aproveitando totalmente o desempenho das GPUs.<\/p>\r\n<p>O CUDA \u00e9 amplamente adotado, com amplo suporte de software, tornando as GPUs da NVIDIA vers\u00e1teis em uma variedade de campos al\u00e9m da IA, incluindo jogos e computa\u00e7\u00e3o cient\u00edfica.<\/p>\r\n\r\n<h2>6. O Potencial da Cerebras em Modelos de Linguagem de Grande Escala (LLMs)<\/h2>\r\n\r\n\r\n<img loading=\"lazy\" decoding=\"async\" src=\"https:\/\/kia-tips.com\/wp-content\/uploads\/2024\/09\/llm-image_watermarked.jpg\" alt=\"\" width=\"728\" height=\"410\" class=\"aligncenter size-full wp-image-7523\" srcset=\"https:\/\/kia-tips.com\/wp-content\/uploads\/2024\/09\/llm-image_watermarked.jpg 728w, https:\/\/kia-tips.com\/wp-content\/uploads\/2024\/09\/llm-image_watermarked-300x169.jpg 300w, https:\/\/kia-tips.com\/wp-content\/uploads\/2024\/09\/llm-image_watermarked-160x90.jpg 160w\" sizes=\"auto, (max-width: 728px) 100vw, 728px\" \/>\r\n<p>O chip da Cerebras \u00e9 particularmente promissor para o desenvolvimento de grandes modelos de linguagem (LLMs), que est\u00e3o ganhando aten\u00e7\u00e3o significativa.<\/p>\r\n<p>Os LLMs requerem enormes conjuntos de dados para treinamento, e o chip da Cerebras, com sua imensa capacidade de processamento e mem\u00f3ria, \u00e9 ideal para esse desenvolvimento. Tradicionalmente, o treinamento de LLMs levava muito tempo, mas a Cerebras pode reduzir drasticamente esse tempo.<\/p>\r\n\r\n<h2>Suplemento: O Que S\u00e3o os Modelos de Linguagem de Grande Escala (LLMs)?<\/h2>\r\n\r\n\r\n<p>LLMs (Modelos de Linguagem de Grande Escala) s\u00e3o modelos de IA treinados em grandes quantidades de dados de texto para processamento de linguagem natural.<\/p>\r\n<p>Esses modelos podem gerar texto semelhante ao humano, responder perguntas e realizar tradu\u00e7\u00f5es. Recentes LLMs, como o ChatGPT o1-preview, Gemini e Claude, trouxeram grandes avan\u00e7os no processamento de linguagem natural conduzido por IA.<\/p>\r\n<p>A caracter\u00edstica chave dos LLMs \u00e9 seu vasto n\u00famero de par\u00e2metros e os enormes conjuntos de dados usados para treinamento. Por exemplo, o o1-preview possui 200 bilh\u00f5es de par\u00e2metros, exigindo um poderoso chip de IA para treinamento, como o Wafer Scale Engine da Cerebras.<\/p>\r\n\r\n<h2>7. Quem se Beneficia? O P\u00fablico-Alvo da Cerebras e da NVIDIA<\/h2>\r\n\r\n\r\n<h4>Quem Deve Escolher a Cerebras?<\/h4>\r\n\r\n\r\n<ul>\r\n<li><strong>Pesquisadores de IA de ponta:<\/strong> A Cerebras \u00e9 perfeita para pesquisadores que trabalham com grandes modelos de IA, especialmente em campos como o processamento de linguagem natural e setores que lidam com grandes volumes de dados.<\/li>\r\n<li><strong>Empresas desenvolvendo grandes modelos de IA:<\/strong> Empresas que visam usar grandes modelos de IA, como chatbots de alta precis\u00e3o ou sistemas de dire\u00e7\u00e3o aut\u00f4noma, se beneficiar\u00e3o do\r\n\r\n poder de processamento da Cerebras.<\/li>\r\n<li><strong>Desenvolvedores de IA que buscam simplicidade de programa\u00e7\u00e3o:<\/strong> A Cerebras simplifica a programa\u00e7\u00e3o complexa necess\u00e1ria para configura\u00e7\u00f5es com m\u00faltiplas GPUs, permitindo que os desenvolvedores se concentrem no design do modelo e nos algoritmos.<\/li>\r\n<\/ul>\r\n\r\n<h4>Quem Deve Escolher a NVIDIA?<\/h4>\r\n\r\n\r\n<ul>\r\n<li><strong>Desenvolvedores em v\u00e1rios campos:<\/strong> As GPUs da NVIDIA s\u00e3o usadas n\u00e3o apenas em IA, mas tamb\u00e9m em jogos, simula\u00e7\u00f5es e computa\u00e7\u00e3o cient\u00edfica. O CUDA facilita o desenvolvimento de uma ampla gama de aplica\u00e7\u00f5es.<\/li>\r\n<li><strong>Desenvolvedores com or\u00e7amento limitado:<\/strong> Espera-se que as GPUs da NVIDIA sejam mais acess\u00edveis, tornando-as adequadas para desenvolvedores com or\u00e7amento apertado ou para projetos menores.<\/li>\r\n<li><strong>Desenvolvedores que utilizam um conjunto de ferramentas rico:<\/strong> A NVIDIA oferece um ecossistema extenso de bibliotecas e ferramentas, como o CUDA, que agilizam o desenvolvimento de IA e oferecem excelente suporte e recursos.<\/li>\r\n<\/ul>\r\n\r\n<h2>8. Conclus\u00e3o: O Futuro do Aprendizado de IA\u2014Cerebras ou NVIDIA?<\/h2>\r\n\r\n\r\n<p>O Wafer Scale Engine da Cerebras oferece um salto transformador nos processos de aprendizado de IA, com sua velocidade incompar\u00e1vel e capacidades de programa\u00e7\u00e3o simplificadas. No entanto, a empresa enfrenta potenciais desafios da NVIDIA, especialmente se a NVIDIA fortalecer suas capacidades de software.<\/p> \r\n<p>\u00c0 medida que a corrida pelo dom\u00ednio da IA esquenta, ser\u00e1 fascinante ver como a Cerebras e a NVIDIA continuar\u00e3o a evoluir. A inova\u00e7\u00e3o da Cerebras poderia levar a um futuro em que at\u00e9 mesmo pequenos desenvolvedores possam participar do aprendizado de IA? S\u00f3 o tempo dir\u00e1, mas \u00e9 certo que o cen\u00e1rio do hardware de IA est\u00e1 \u00e0 beira de uma grande mudan\u00e7a.<\/p>\r\n\r\n<p class=\"source\">Fonte:<a href=\"https:\/\/www.youtube.com\/watch?v=wjarJT1-7mg&#038;list=PLCiO1ulV2l-ZZPIckA48UU0aNK4FwcQnG&#038;t=657s&#038;ab_channel=CerebrasSystems\" target=\"_blank\" rel=\"noopener\">Cerebras AI Day &#8211; Opening Keynote &#8211; Andrew Feldman &#8211; YouTube<\/a><\/p>\r\n<p class=\"source\">Fonte:<a href=\"https:\/\/venturebeat.com\/ai\/how-cerebras-is-breaking-the-gpu-bottleneck-on-ai-inference\/\" target=\"_blank\" rel=\"noopener\">Como a Cerebras est\u00e1 rompendo o gargalo das GPUs na infer\u00eancia de IA<\/a><\/p>\r\n","protected":false},"excerpt":{"rendered":"O mercado de chips de IA, que impulsionou o recente boom da IA, \u00e9 amplamente dominado pela NVIDIA. Mas agora, &#8230;","protected":false},"author":2,"featured_media":7522,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"_locale":"pt_PT","_original_post":"https:\/\/kia-tips.com\/?p=7442","footnotes":""},"categories":[162],"tags":[],"class_list":{"0":"post-7542","1":"post","2":"type-post","3":"status-publish","4":"format-standard","5":"has-post-thumbnail","7":"category-ai","8":"pt-PT","9":"article cf"},"_links":{"self":[{"href":"https:\/\/kia-tips.com\/wp-json\/wp\/v2\/posts\/7542","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/kia-tips.com\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/kia-tips.com\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/kia-tips.com\/wp-json\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/kia-tips.com\/wp-json\/wp\/v2\/comments?post=7542"}],"version-history":[{"count":1,"href":"https:\/\/kia-tips.com\/wp-json\/wp\/v2\/posts\/7542\/revisions"}],"predecessor-version":[{"id":7543,"href":"https:\/\/kia-tips.com\/wp-json\/wp\/v2\/posts\/7542\/revisions\/7543"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/kia-tips.com\/wp-json\/wp\/v2\/media\/7522"}],"wp:attachment":[{"href":"https:\/\/kia-tips.com\/wp-json\/wp\/v2\/media?parent=7542"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/kia-tips.com\/wp-json\/wp\/v2\/categories?post=7542"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/kia-tips.com\/wp-json\/wp\/v2\/tags?post=7542"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}