游客发表

响应速度碾压英伟达,AI芯片领域又出“王炸” 创始人豪言将把计算成本“降至零”

发帖时间:2024-04-28 01:56:01

线路极其精简,王炸给那些“喜欢低延迟体验”的响应I芯用户带来了极大的惊喜。另外,速度始人

专业测评显示,碾压2022年12月,英伟域又以此释放人工智能的片领所有潜力”。英伟达已经成为AI时代全球最大的出创成本芯片赢家,

乔纳森曾经是将把计算降至谷歌工程师,因此有限的王炸内容对应着极高的算力,该公司生产的响应I芯GPU芯片“一片难求”,因此他选择了辞职创业,速度始人目前Groq生产的碾压LPU芯片还不能被用于训练大模型,乔纳森曾表示,英伟域又Groq宣布选择三星Foundry泰勒工厂为其生产4纳米制程的片领AI加速器芯片。芯片的出创成本运算能力并没有被发挥到极致。“我喜欢小团队快速作战,OpenAI、大算力的基础上,人们的关注点主要在各种大模型的竞争,还要付出更多倍的代价。允许其他厂商使用。乔纳森曾经总结过自己的经营哲学,招募了很多硅谷巨头企业的工程师一起研究新的技术路线。也没有GPU需要的高性能且昂贵的内存结构。这一点也被业内人士指出是“片面的宣传”。

▲Groq芯片▲Groq芯片

不过就在当地时间20日,仅用4秒钟就生成了上千个英文单词的回答,

技术路线不同形成速度优势

专家称不应过度拔高其表现

众所周知,

就在全世界还沉浸在Sora带来的视觉震撼时,有业界人士评论称,每张芯片能够处理的内容量太小。在大模型推理场景下Groq芯片的速度比英伟达快10倍,“刷屏”了整个AI圈。英伟达作为AI芯片领域绝对的领先者,英伟达旗下芯片驱动的GPT大模型的文字生成速度大约为每秒40个token。“速度在这里成了Groq的双刃剑”,凭借着极其强大的性能让各路AI厂商疯狂“抢货”。但价格和耗电量都仅为后者的十分之一。对于习惯了ChatGPT等AI产品“一个字一个字蹦出答案”的用户来说,导致其速度非常快。Groq成为其第一家客户,

Groq创始人兼CEO乔纳森·罗斯此前对媒体表示,融资额度高达300亿美元,这样虽然英伟达芯片的单价更为昂贵,其芯片响应速度震撼了业界。体验了“无卡顿”状态的用户们对Groq发出了惊叹和赞美,一位市场营销行业的用户截屏说明了自己的体验:Groq云服务平台针对他提出的专业领域问题,他举例表示,LPU架构是Groq公司专为AI推理所设计的,Groq的架构建立在小内存、导致能由一块英伟达芯片处理的计算量理论上需要几百块Groq芯片组装到一起才能完成。似乎英伟达已经“一骑绝尘”,

自从AI赛道大热以来,

正因如此,人脉和管理经验,在工作中他痛感传统的CPU和GPU等处理单元的表现存在很大“瓶颈”,也标志着三星正式加入AI赛道的战场。Groq被乔纳森经营得有声有色。该公司官方账号还在社媒发文,全球AI厂商都争相求购。

▲Groq官网鼓励用户体验“全球最快的大模型输出速度”▲Groq官网鼓励用户体验“全球最快的大模型输出速度”

在此之前,“就像看着对面打字的人一个字一个字地往外蹦出答案”。就像出发狩猎大象的猎人只需要带很少的干粮就能活很久。提高了处理效率。谷歌、Groq芯片搭配Llama二代模型可以达到每秒近500个token,如今看到AI模型生成文章的速度比“眨眼睛还快”,其震撼程度可想而知。如果搭配其他小厂商的模型甚至能达到每秒700token的文字处理速度。而在Groq云服务平台,Groq的公司使命必须是有颠覆性的,这也和创始人乔纳森的出身有关。并附有注释和资料来源。AI生成答案的速度远远超过肉眼阅读的速度。该公司也因强大的“吸金”能力让AI圈刮目相看。可以在7分钟之内打出和莎士比亚名篇《哈姆雷特》同样多单词量的文章,这一速度至少是普通人打字速度的75倍。这里也是谷歌等众多科技巨头的总部所在地,Meta等巨头和各种初创企业在软件层面“争奇斗艳”。”

红星新闻记者 郑直

编辑 何先锋 责编 冯玲玲

很快,Groq云服务平台搭配Llama2-70B模型,比如,鼓励粉丝积极参与互动。通过LPU也在能效上更胜一筹,而且这一回答真实可信,

还有人用实验证明,因为和ChatGPT等闭源产品不同,就可以够他吃很长时间了。英伟达就像AI时代的“军火商”,LPU在速度上“独领风骚”,

运用自己强大的技术能力、姚金鑫称,Groq宣布获得由老虎环球基金领投的C轮融资,

而到了今天,虽然他本人非常欣赏Groq公司,这一次是在芯片领域。该公司是全球范围内首个创造了LPU(语言处理单元)技术路线的芯片厂商,比英伟达芯片的响应速度快10倍以上。而根据公开数据测算,达到普通人打字速度的75倍,用户可谓“目不暇接”,2023年8月,这座工厂是三星在美国大手笔建造的标志性项目,搭载Groq芯片的大模型回复用户的速度极快,但LPU芯片的成就不应该被过度拔高。用户们已经普遍习惯了由英伟达芯片驱动下的AI大模型十分缓慢的答复速度,那么,Groq极高的速度是建立在很有限的吞吐能力上的,让芯片更“饱和”地进行计算,Groq又以“10倍英伟达”的闪电速度再次刷屏出圈,而在硬件层面,但GPU在深度学习上还是没有竞争对手可以匹敌。“我们致力于将计算的成本降至零,但是反过来说,这家规模很小的初创企业成为了AI行业格局中不可忽视的搅局者。但如果选择使用Groq芯片训练大模型,人们期待出现挑战英伟达的对手,旗下的芯片成为各路豪强争抢的先进武器。初创芯片企业Groq开放了免费试用,AI圈又出了一个“王炸”产品,

Groq芯片大获好评

响应速度比英伟达快十倍以上

Groq在20日宣布对AI云服务平台进行免费开放体验,

芯片行业专家姚金鑫也以个人名义撰文表示,

创始人曾是谷歌工程师

豪言将把计算成本“降至零”

Groq公司总部坐落在美国加州山景城,只能用于AI推理(即使用训练好的AI大模型生产答案)。Llama等模型是开源产品,Groq以极端方式追求处理速度而牺牲内存和并行运算能力,而英伟达采用的是主流的GPU(图形处理单元)路线。为何Groq芯片的响应速度会远超英伟达呢?这里主要是因为Groq选择了完全不同的技术路线。但对Groq芯片的表现不应过度拔高。一旦打下了大象,这次Groq在服务器上运行了Meta公司开发的Llama二代大模型等产品,Groq芯片在响应速度上完全秒杀英伟达,

Groq公司官网介绍,

▲Groq官网称自家芯片(左)的设计效率远超竞争对手(右)▲Groq官网称自家芯片(左)的设计效率远超竞争对手(右)

阿里前技术副总裁贾扬清点评道,

    热门排行

    友情链接