Groq
出典: フリー百科事典『ウィキペディア(Wikipedia)』 (2025/06/19 14:20 UTC 版)
![]() |
|
種類
|
非公開会社 |
---|---|
業種 | |
設立 | 2016年 |
創業者 |
|
本社 |
カリフォルニア州マウンテンビュー
、
合衆国
|
主要人物
|
Jonathan Ross (CEO)、アンドリュー S. ラパポート (理事メンバー)、チャマス・パリハピティヤ (投資家) |
製品 | 言語処理ユニット (LPU: Language Processing Unit) |
売上高 | 3.2百万米ドル (2023年)[1] |
利益
|
−88百万米ドル (2023年)[1] |
従業員数
|
250名 (2023年) |
ウェブサイト | groq |
Groq, Inc. は、LPU: (Language Processing Unit、言語処理ユニット)と称するAIアクセラレータASICおよびAIワークロードにおける推論性能を向上させる関連ハードウェアの構築を行っているアメリカのAI企業である。 Groq製LPUで走らすことの出来るAIワークロードの一例としては: 大規模言語モデル (LLM)[2][3]、画像分類[4]、異常検知[5][6]、および予測分析である[7][8]。
Groqはカリフォルニア州マウンテンビューを本拠にし、そして同州サンノゼ、ワシントン州リバティ・レイク市、カナダのトロント、イギリスのロンドンに支社を持ち、リモートワーカーを北アメリカとヨーロッパ全域で雇っている。
歴史
Groqは、AIアクセラレータASICである、テンサー・プロセッシング・ユニット(TPU)の設計者の内の1人であるJonathan Rossと、起業家でかつてGoogle X(X Developmentとしても知られる)の初代CEOを務めたエンジニアのDouglas Wightman率いる元Googleのエンジニア達のグループによって、2016年に設立された[9][1]。
Groqは、ソーシャル・キャピタルのチャマス・パリハピティヤからシード資金を受け取って、2017年に1千万米ドルの投資を行い[10]、その後すぐに追加の資金を確保した。
2021年4月、Groqはタイガー・グローバル・マネジメントとD1キャピタル・パートナーズ率いるシリーズCラウンドで3億ドルを調達した[11]。現在の投資家には次を含む: The Spruce House Partnership、アディション、GCMグロブナー、Xⁿ、Firebolt Ventures、General Global Capital、Tru Arrow Partners、またTDKベンチャー、XTXベンチャー、Boardman Bay Capital Management、そしてInfinitum Partnersからの後続投資も然りである[12][13]。GroqのシリーズC資金調達ラウンドの後、このスタートアップは10億ドル以上と評価され、ユニコーンとなった[14]。
2022年3月1日、Groqはデータフロー・システム技術で名を馳せていた企業、Maxeler Technologiesを買収した[15]。
2023年8月16日、Groqはサムスンの4nmプロセス・ノードで次世代チップを製造するために、テキサス州テイラー市にあるサムスン電子のファウンドリを選択した。この新しいサムスンのチップ工場において、これは初の受注案件であった[16]。
2024年2月19日、Groq softはGroq APIの利用促進と、自社チップへのレンタル・アクセスに開発者を引き付けるために開発者プラットフォーム、GroqCloudを立ち上げた[17][1]。同年3月1日、Groqは自社のクラウドプラットフォームを支援するために(広範なビジネス=指向AIソリューションを提供することで知られるスタートアップ企業)Definitive Intelligenceを買収した[18]。
Groqは、2024年8月にブラックロック・プライベートエクイティ・パートナーズ率いるシリーズDラウンドで企業価値評価額を28億ドルと見積もられ、6億4千万ドルを調達した[1][19]。
Groqによる自社サイトの最近の更新で、自社のインフラを拡張するためにサウジアラビアからの資金調達で15億を確保した事を発表した[20]。
言語処理ユニット

Groqの同社製ASICについて初期の呼称はTensor Streaming Processor (TSP)であったが、のちにTSPをLanguage Processing Unit (LPU)としてリブランドさせた[2][21][22]。
LPUは機能的には、細切れな「ベクトルと行列演算ユニットでインターリーブ(※≒サンドイッチ)されたメモリ・ユニット」を用いるマイクロアーキテクチャを特徴とする[23][24]。この設計はAIのグラフ演算におけるデータフロー局所性の利用促進につながり、実行性能と効率を改善させる。LPUは次の2つの重要な所見に基づいて設計された:
- AIワークロードは実質的には(専用ハードウェアにマッピング可能な)データ並列性を示し、性能向上が期待されること[23][24]。
- (生産者=消費者的プログラミング・モデルと相まって)決定論的プロセッサ設計は、ハードウェア・コンポーネント全体にわたって精緻な制御と演繹を可能し、最適化された性能とエネルギー効率を可能にすること[23][24]。
その機能的に細切れなマイクロアーキテクチャに加えて、LPUはその単一コア(性)、決定論的アーキテクチャによっても特徴付けられる[23][25]。LPUは、因襲的で無効なハードウェア・コンポーネント(分岐予測器、アービタ(※≒バスコントローラ)、リオーダバッファ(※≒アウト・オブ・オーダー実行器)、キャッシュ)の利用を回避し[23]、ならびにLPUプログラムの実行時においては、全ての実行を明示的にコンパイラに制御させることで、決定論(性)を保証することにより、LPUの決定論的実行の達成を可能にする[24]。
LPUの第1世代(LPU v1)では、900MHzの公称クロック周波数で動作する、その14nm(プロセスルール)25×29mmチップにおいて、シリコン1mm2あたり1テラ回/秒を超える計算密度を生む[23]。LPUの第2世代(LPU v2)はサムスンの4nmプロセスノードで製造される[16]。
性能
Groqは、Meta社のLlama2-70Bパラメータ・モデルの実行に際して、100トークン毎秒の生成速度の突破した、初のAPIプロバイダーとして浮上した[26]。
Groqは現在、自社のLPU上で走る様々なオープン=ソース大規模言語モデルを公開アクセスのためにホストしている[27]。これらのデモへのアクセスはGroqのWebサイトを通じて利用できる。これらオープンソースLLMの実行に際してのLPUの性能は、その他のLLMプロバイダーと照らし合わせて、ArtificialAnalysis.aiによって独立的にベンチマークされている[28]。LPUの測定済みの性能(値)は以下の表に示す通り:
モデル名 | トークン/秒 (T/s) | レイテンシ |
---|---|---|
Llama2-70B[29][30][31] | 253 T/s | 0.3秒 |
Mixtral[32] | 473 T/s | |
Gemma[33] | 826 T/s |
関連項目
- CPU
- Graphics Processing Unit
- その他同業他社
脚注
- ^ a b c d e Nieva, Richard (2024年8月5日). “The AI Chip Boom Saved This Tiny Startup. Now Worth $2.8 Billion, It's Taking On Nvidia”. Forbes. Template:Cite webの呼び出しエラー:引数 accessdate は必須です。
- ^ a b “'Feels like magic!': Groq's ultrafast LPU could well be the first LLM-native processor — and its latest demo may well convince Nvidia and AMD to get out their checkbooks”. TechRadar Pro. TechRadar (2024年2月27日). 2024年4月19日閲覧。
- ^ “Groq Demonstrates Fast LLMs on 4-Year-Old Silicon”. EETimes (2023年9月12日). 2024年4月19日閲覧。
- ^ “Groq's AI Chip Debuts in the Cloud”. EETimes (2020年1月21日). 2024年4月19日閲覧。
- ^ “US Army Analytics Group – Cybersecurity Anomaly Detection 1000X Faster With Less False Positives”. Forbes. 2024年4月19日閲覧。
- ^ “Cybersecurity Is Entering The High-Tech Era”. Forbes. 2024年4月19日閲覧。
- ^ “Researchers accelerate fusion research with Argonne's Groq AI platform”. Argonne Leadership Computing Facility. 2024年4月19日閲覧。
- ^ “Argonne deploys new Groq system to ALCF AI Testbed, providing AI accelerator access to researchers globally”. Argonne Leadership Computing Facility. 2024年4月19日閲覧。
- ^ “Several Google engineers have left one of its most secretive AI projects to form a stealth start-up”. CNBC (2017年4月21日). 2024年4月19日閲覧。
- ^ “Secretive semiconductor startup Groq raises $52M from Social Capital”. TechCrunch (2018年9月6日). 2024年4月19日閲覧。
- ^ King, Ian (2021年4月14日). “Tiger Global, D1 Lead $300 Million Round in AI Chip Startup Groq” 2024年4月19日閲覧。
- ^ “AI chipmaker Groq raises $300M in Series C round”. Silicon Angle (2021年4月14日). 2024年4月19日閲覧。
- ^ “AI Chip Startup Groq Closes $300 Million in Series C Fundraising”. Unite.AI (2021年4月14日). 2024年4月19日閲覧。
- ^ “Analysis: Groq computes a $300m series C”. Global Venturing (2021年4月19日). 2024年4月19日閲覧。
- ^ “GROQ BUYS MAXELER FOR ITS HPC AND AI DATAFLOW EXPERTISE”. The Next Platform (2022年3月2日). 2024年4月19日閲覧。
- ^ a b “Samsung's new US chip fab wins first foundry order from Groq”. The Korea Economic Daily. 2024年4月19日閲覧。
- ^ “Groq launches developer playground GroqCloud with newly acquired Definitive Intelligence”. Venture Beat (2024年3月). 2024年4月19日閲覧。
- ^ “AI chip startup Groq forms new business unit, acquires Definitive Intelligence”. TechCrunch (2024年3月). 2024年4月19日閲覧。
- ^ Wiggers, Kyle (2024年8月5日). “AI chip startup Groq lands $640M to challenge Nvidia” (英語). TechCrunch. 2024年8月26日閲覧。
- ^ https://groq.com/leap2025/
- ^ “Grokking Groq's Groqness”. Blocks & Files (2024年1月23日). 2024年4月19日閲覧。
- ^ Abts, Dennis; Ross, Jonathan; Sparling, Jonathan; Wong-VanHaren, Mark; Baker, Max; Hawkins, Tom; Bell, Andrew; Thompson, John et al. (May 2020). “Think Fast: A Tensor Streaming Processor (TSP) for Accelerating Deep Learning Workloads”. 2020 ACM/IEEE 47th Annual International Symposium on Computer Architecture (ISCA). pp. 145–158. doi:10.1109/ISCA45697.2020.00023. ISBN 978-1-7281-4661-4
- ^ a b c d e f Abts, Dennis; Kimmell, Garrin; Ling, Andrew; Kim, John; Boyd, Matt; Bitar, Andrew; Parmar, Sahil; Ahmed, Ibrahim et al. (2022-06-11). “A software-defined tensor streaming multiprocessor for large-scale machine learning”. Proceedings of the 49th Annual International Symposium on Computer Architecture. pp. 567–580. doi:10.1145/3470496.3527405. ISBN 978-1-4503-8610-4
- ^ a b c d Abts, Dennis; Kimmell, Garrin; Ling, Andrew; Kim, John; Boyd, Matt; Bitar, Andrew; Parmar, Sahil; Ahmed, Ibrahim et al. (June 11, 2022). “A software-defined tensor streaming multiprocessor for large-scale machine learning”. Proceedings of the 49th Annual International Symposium on Computer Architecture. pp. 567–580. doi:10.1145/3470496.3527405. ISBN 978-1-4503-8610-4 2024年3月18日閲覧。
- ^ Singh, Satnam (February 11, 2022). “The Virtuous Cycles of Determinism: Programming Groq's Tensor Streaming Processor”. Proceedings of the 2022 ACM/SIGDA International Symposium on Field-Programmable Gate Arrays. p. 153. doi:10.1145/3490422.3510453. ISBN 978-1-4503-9149-8 2024年3月18日閲覧。
- ^ “Groq's Record-Breaking Language Processor Hits 100 Tokens Per Second On A Massive AI Model”. Forbes. 2024年4月19日閲覧。
- ^ “Meet Groq — the chip designed to run AI models really, really fast”. Tom’s Guide (2024年2月27日). 2024年4月19日閲覧。
- ^ “Groq Shows Promising Results in New LLM Benchmark, Surpassing Industry Averages”. HPCwire (2024年2月13日). 2024年3月18日閲覧。
- ^ “Llama-2 Chat 70B Providers”. artificialanalysis.ai. 2024年3月18日閲覧。
- ^ “Groq Shows Promising Results in New LLM Benchmark, Surpassing Industry Averages”. Datanami (2024年2月13日). 2024年3月18日閲覧。
- ^ “Groq Demos Fast LLMs on 4-Year-Old Silicon”. EE Times (2023年9月12日). 2024年3月18日閲覧。
- ^ “Mixtral 8x7B Instruct Providers”. artificialanalysis.ai. 2024年3月18日閲覧。
- ^ “Gemma-7B Models Providers”. artificialanalysis.ai. 2024年3月18日閲覧。
- ^ “Intelを突如退職した天才エンジニアのジム・ケラー氏がAIチップ企業の社長兼CTOに就任 - GIGAZINE”. gigazine.net (2021年1月7日). 2025年6月6日閲覧。
- ^ “ジム・ケラーのAIチップ企業「Tenstorrent」がAI推論に特化したPCIe拡張カード「Grayskull e75」と「Grayskull e150」をリリース&日本のLSTCやRapidusとの協力も発表 - GIGAZINE”. gigazine.net (2024年3月11日). 2025年6月6日閲覧。
- ^ “AppleやAMDを渡り歩いた伝説的エンジニアのジム・ケラーが「NVIDIAがうまく対応していない市場」を狙ったAIチップを開発中 - GIGAZINE”. gigazine.net (2024年7月18日). 2025年6月6日閲覧。
- ^ “AppleやAMDを渡り歩いた天才エンジニアのジム・ケラー氏がRISC-Vの未来やオープンソースへの熱意について語るインタビュー動画が公開 - GIGAZINE”. gigazine.net (2023年6月15日). 2025年6月6日閲覧。
- ^ “AMD RyzenやApple A4を生んだ天才エンジニアのジム・ケラーが半導体製造企業「Atomic Semi」を立ち上げ - GIGAZINE”. gigazine.net (2023年2月24日). 2025年6月6日閲覧。
- ^ 株式会社インプレス (2022年9月14日). “SambaNova、性能が2倍になった新しいAI学習用プロセッサ「Cardinal SN30」を投入”. Car Watch. 2025年6月6日閲覧。
- ^ 株式会社インプレス (2023年9月20日). “SambaNova、5nmに微細化され、広帯域メモリと大容量メモリの両方をカバーした新AIプロセッサ「SN40L」”. クラウド Watch. 2025年6月6日閲覧。
- ^ 株式会社インプレス (2024年7月30日). “【福田昭のセミコン業界最前線】 Zen 5やXeon 6などの高性能プロセッサが目白押しの祭典「Hot Chips」”. PC Watch. 2025年6月6日閲覧。
- ^ 株式会社インプレス (2023年3月1日). “SambaNova、手軽に生成AIを始められるエンタープライズ向け「SambaNova Suite」提供開始”. Car Watch. 2025年6月6日閲覧。
- ^ 株式会社インプレス (2024年11月9日). “Llama 3シリーズが爆速動作! 誰でも無料で利用できる「SambaNova Cloud」【AIフェスティバル 2024】/世界最速を謳うAI推論サービスが体験可能”. 窓の杜. 2025年6月6日閲覧。
- ^ 株式会社インプレス (2024年11月11日). “今注目すべき「AI技術」とは?人工生命、半導体、エンジニアそれぞれの視点で見えるもの【AIフェスティバル 2024】/来年はどうなる?”. 窓の杜. 2025年6月6日閲覧。
- ^ “SambaNova SystemsのSambaNovaDataScaleを採用 ~ Society 5.0時代の研究に向け、「富岳」とAIの融合を加速”. 理化学研究所 計算科学研究センター(R-CCS). 2025年6月6日閲覧。
- ^ 日経クロステック(xTECH) (2023年10月10日). “理研も採用、SambaNovaのAI半導体で久々に聞いた2つの技術”. 日経クロステック(xTECH). 2025年6月6日閲覧。
- ^ 株式会社インプレス (2022年6月1日). “SambaNova、AI向け半導体RDUなどについて「マルチコア・プロセッサの父」と呼ばれるクネル・オルクトン氏が来日公演”. Car Watch. 2025年6月6日閲覧。
- ^ “ディープラーニングが激速に NVIDIAの牙城を崩せるか? SambaNovaに聞く”. ITmedia NEWS. 2025年6月6日閲覧。
- ^ “シリコンバレーの注目AI半導体ベンチャーSambaNovaを現地取材 NVIDIA製GPUより5倍以上高速・高効率の秘密”. 2025年6月6日閲覧。
- ^ 株式会社インプレス (2024年2月22日). “CTCと米Liquid AIがエッジAIソリューションの開発で協業、エッジデバイスでの処理能力の向上を目指す”. クラウド Watch. 2025年6月6日閲覧。
- ^ “機械学習の新しいアプローチに線虫の神経系をベースにしたニューラルネットワークが用いられる - GIGAZINE”. gigazine.net (2023年2月14日). 2025年6月6日閲覧。
- ^ Wiggers, Kyle (2023年12月6日). “Liquid AI, a new MIT spinoff, wants to build an entirely new type of AI” (英語). TechCrunch. 2025年6月6日閲覧。
- ^ Knight, Will. “Liquid AI Is Redesigning the Neural Network” (英語). Wired. ISSN 1059-1028 2025年6月6日閲覧。
- ^ “MITからスピンオフした「Liquid AI」が非トランスフォーマーAIモデル「LFM 1B・3B・40B MoE」をリリース - GIGAZINE”. gigazine.net (2024年10月1日). 2025年6月6日閲覧。
外部リンク
- Groqのページへのリンク