最新動向

【GroqCloud】 爆速回答!?GroqCloudの実力とは

Groq社が提供するGroqCloudは、AI開発者向けのクラウドサービスで、Groq社が開発
した独自のLanguage Processing Unit (LPU) などのハードウェアを、クラウド上で
利用できます。

本記事では、様々なテックブログで“爆速”と噂のGroqCloudについて、お試し実行した際の結果や実際の応答速度などを見ていきます。

【図1】Groq HPのスクリーンショット(*1)※2025年1月24日時点

*1  引用元:Groq is Fast AI Inference 


目次

Groq社の概要

会社概要

Groq社は2016年にカリフォルニア州で設立され、独自の機械学習専用のハードウェアを
開発するテクノロジー企業です。CEOのJonathan Ross氏は、GoogleのTensor Processing Unit (TPU)の開発に携わっており、昨今のAIチップなどのハードウェアを牽引する開発者の一人でもあります。

Groq社が提供するGroqCloudの最大の強みは、独自開発したLanguage Processing Unit(LPU)を手軽に使用できる点にあり、このLPUは従来のGPUより圧倒的な推論速度と効率性を実現できると言われています。
GroqCloudでは、APIを通じてこのLPUを使用でき、ユーザが容易に高速な推論を実現できる環境となっています。


最近の動向

年表
動向
2016年Groq社 設立
2024年3月GroqCloud サービス開始
(リリースからわずか7週間で10万人以上のユーザが利用開始)
2024年3月Definitive Intelligenceを買収(GroqCloudの機能を強化が目的)
2024年8月6億4000万ドル(約946億円)を調達

 

GroqCloudの利用例

ブラウザ上でプロンプト実行

PlayGround」へアクセスして実行できます。
※事前にメールアドレスの登録が必要です。(g-mailなどで登録可能)

【図2】 PlayGround(*1


制限

2025年1月24日時点で、下記のような制限となっています。
リクエストは1日14.4k、トークン数は1日に18kでGPTなどと、比較すると少量のため、
チャットボットなどへのサービスに導入を考えている場合は注意が必要です。


使用量の監視

「Metrics」より実行ステータスや使用したトークンの総量などが確認でき、モデルやAPI Keyごとに見ることもできます。

【図3】 Metrics(*1


▍API Key 

「API Keys」よりAPI Keyを作成可能です。呼び出し回数の制限は自分で設定できず、
24時間で720回までと決まっているようです。
サービスに組み込む場合は、トークン制限などと合わせてこちらも注意が必要です。

【図4】 API Keys(*1


Pythonでの実行例

GroqCloudのPlaygroundで得られるサンプルをベースに、簡単な命令を実行しました。

環境例

  • Python 3.12
  • groq (python用Groqライブラリ)



コード実装例



















実行結果

猫が魚を愛する理由は、いくつか考えられます。

 * **進化の痕跡:** 猫はもともと肉食動物として進化し、野生では小魚を捕食していました。そのため、魚のような脂っこくタンパク質豊富な食物を本能的に好む習性を持っているのかもしれません。

* **アミノ酸と香り:** 魚には、猫が特に好むタウリンやアラニンなどのアミノ酸が含まれており、食欲をそそります。また、魚独特の香りが猫を引きつけるとも言われています。

 * **嗜好性の個人差:** すべての猫が魚を喜ぶわけではなく、個体差はあります。人間と同じように、猫にも特定の味が好き嫌いが存在します。

 これらの要素が組み合わさって、猫が魚を好み、美味しいと感じるのかもしれませんね。


▍100回実行した場合の応答速度

大体1回の実行において、0.3秒前後で回答されました。

トークン数やモデルで変わるため、一概に比較はできませんが、ローカルモデル(Qwen2.5-3B-Instruct)の実行が、今回実験した環境では20秒以上なことを考えると、たしかに「爆速」という評価は正しそうです。
この速度が出せるサーバー代を考えると、無料で使用できる (2025/1/24現在) GroqCloudは、個人研究者や開発者にとって強い味方となりそうです。

ちなみに、ローカルモデルを実行した環境でgpt-4o-miniの応答速度は0.1秒前後だったため、APIとして考えると単純な応答速度ではまだGPTに軍配が上がっています。
ただし、「GroqCloudでLlama3 8Bモデルを使用した際、1秒で800トークン出力できる」
という情報もあるため、今回のような小さいサイズのモデルの単純な処理ではなく、大きなモデルやトークン数が多くなったとき、GroqCloudの本領が発揮されてきそうです。

モデル名
応答速度の算術平均 [sec.]
標準偏差
GroqCloud)gemma2-9b-it
0.26
0.04
GroqCloud)llama-3.2-1b-preview
0.25
0.04
Qwen2.5-3B-Instruct
23.6
11.19
gpt-4o-mini
0.09
0.02


参考





記事を書いた人
柴田 晃

2019年に新潟県にある長岡技術科学大学 情報経営システム工学専攻 修士課程を修了。 半導体企業を経て、2024年より株式会社調和技研で従事。 Deep Learningを使用したテキスト解析やAIアクセラレータ開発、カメラ映像を使用した 画像処理などを経験。 現在はLLMを活用したシステム開発、言語系を中心とした研究開発に従事。