
ChatGPTのAPI利用料金比較|最新モデルo3-proも検証

こんにちは。調和技研の石岡です。
ChatGPTのAPIを使っていると、いつの間にか案外大きな金額がかかっていることがあります。1回の処理は大した金額ではなくても、繰り返し実験を行ったり、毎日処理を行ったりすると想像以上の支払いになってしまうのです。もちろん金額は前もって提示されていますが、実際のタスクに各モデルを使用して料金を確認することで具体的な費用感をイメージできるようにしたいと思います。
この記事では、GPTのAPIを実際に使ってOpenAIのUsageページで金額を確認し、どのくらいの金額がかかるのかを検証します。
対象モデルと金額
まずは公開されている料金の確認をします。
対象とするのは2025年6月現在、APIとして利用可能なモデルです。
API料金としては以下の表が示されており、モデルによって異なる金額が、入力と出力それぞれのトークン数に応じてかかります。
1M トークンあたりの金額はそれぞれ以下のようになっています。
分 類 | モデル | 金 額 | コンテキスト長 | 出力トークン |
モデル | GPT-4.1 mini | 入力:$0.40 / 1M トークン 出力:$1.60 / 1M トークン | 1M トークン | 32k トークン |
GPT-4.1 nano | 入力:$0.100 / 1Mトークン 出力:$0.400 / 1Mトークン | 1M トークン | 32k トークン | |
GPT-4.5 Preview | 入力:$75.00 / 1Mトークン 出力:$150.00 / 1M トークン | 16kトークン | ||
GPT-4o | 入力:$2.5/1Mトークン 出力:$10/1Mトークン | 128k トークン | 16k トークン | |
GPT-4o mini | 入力:$0.15/ 1Mトークン 出力:$0.6/1Mトークン | 128k トークン | 16k トークン | |
思考型モデル | o3-pro | 入力:$20/1Mトークン 出力:$80/1Mトークン | 200k トークン | 100k トークン |
o3 | 入力:$10/1Mトークン 出力:$40/1Mトークン | 200k トークン | 100k トークン | |
o4-mini | 入力:$1.1/1Mトークン 出力:$4.4/1Mトークン | 200k トークン | 100k トークン | |
o3-mini | 入力:$1.1/1Mトークン 出力:$4.4/1Mトークン | 200k トークン | 100k トークン | |
o1 | 入力:$15/1Mトークン 出力:$60/1Mトークン | 200k トークン | 32k トークン |
トークンは、LLMが処理の対象とする単位でブレも大きいですが、日本語では 1文字が0.5~3トークン程度、英語では1ワードが1トークン程度になります。
今回の実験では長いテキストの例として青空文庫の夏目漱石「坊っちゃん」をUTF-8に変換して利用しましたが、このデータは 105,100文字で94,410 Byte、90,765トークンでした。
テキストがどのくらいのトークン数になるかは、OpenAIが提供している以下のサイトで確認することができます。
tokenizer - OpenAI API https://platform.openai.com/tokenizer
モデルは、従来のGPTモデルと思考モデルに分けられます。GPTモデルは、テキスト入力に
対してテキストを出力する言語モデルそのままの挙動をしますが、思考モデルは入力に対して思考に相当する出力を内部的に行ってから最終的な出力を生成することで、論理的な思考能力を向上させたモデルです。
現在、最も高価なのはGPT-4.5 Previewで、入力が$75.00 / 1M トークン、出力が$150.00 / 1M トークンです。一方安価なのはGPT-4.1 nanoで、入力:$0.100 / 1M トークン、出力:$0.400 / 1M トークンです。なんと入力で750倍、出力で375倍の価格差があります。
1万円分使うつもりの実験で750万円使ってしまうととんでもないことになってしまうので、モデルの指定は慎重に行う必要があります。
タスクの概要
入力と出力で金額が異なるため、入力と出力がそれぞれ短いものと長いものの組み合わせを想定して、次のようなタスク1〜4を用意しました。また、入力を制限いっぱいまで利用する場合も考えられるため、非常に長い入力(128kトークン、1Mトークン)の実験としてタスク5、6を設定しました。
タスク3、4では、8kトークンに収まる長さのデータとして、青空文庫から芥川竜之介の
「羅生門(7,111文字、7,191Byte、5,982 トークン)」のテキスト版をダウンロードして利用します。
元のファイルはSJISだったため、UTF-8に変換してから読み込みを行いました。
タスク5では、コンテキスト長128kトークンに収まる長いテキストとして、夏目漱石の
「坊っちゃん (105,100文字、94,410 Byte、90,765 トークン)」を、タスク6では、1M トークンに収まるデータとして 「罪と罰(内田不知庵訳)(676,878文字、 2,024,413Byte、544,648トークン)」を利用しました。
タスク番号 | 入力 | 出力 | タスクの概要 | プロンプト例 |
タスク1 | 短い | 短い | シンプルな質問応答 | アメリカの初代大統領は誰ですか? 解説は不要です。回答だけお願いします。 |
タスク2 | 短い | 長い | 文章の生成 | OpenAIのAPIを用いて、文章を生成する方法について、なるべく詳しくステップごとに丁寧に解説してください。 |
タスク3 | 長い | 短い | 文章の要約 | 次のテキストを要約してください。 {テキスト 羅生門 7,111文字を入力} |
タスク4 | 長い | 長い | 文章の書き換え | 次のテキストの漢字部分を全てひらがなに 書き換えてください。 {テキスト 羅生門 7,111文字を入力} |
タスク5 | 128kトークン以内 | 短い | 100kトークン以下の文章の要約 | 次のテキストを要約してください。 {テキスト 坊っちゃん 105,100文字を入力} |
タスク6 | 1Mトークン以内 | 短い | 1Mトークン以下の 文章の要約 | 次のテキストを要約してください。 {テキスト 罪と罰 676,878文字を入力} |
結果
上記のタスクを実行した後、OpenAIのUsageページで確認した利用金額は次のようになり
ました。
入力が同じプロンプトでも結果のテキストが変わることもあるため、「出力トークン数」
「金額」は試行によって多少変化します。
タスク1: シンプルな質問応答
タスク1では、入力も出力も短い例としてシンプルな質問応答を行いました。
入力:アメリカの初代大統領は誰ですか? 解説は不要です。回答だけお願いします。
出力の一例: ジョージ・ワシントンです。
結果:
タスク | モデル | 入力トークン数 | 出力トークン数 | 金額 |
タスク1 (短い入力、短い出力) | GPT-4.1 | 31 | 7 | <$0.01 |
GPT-4.1 mini | 31 | 7 | <$0.01 | |
GPT-4.1 nano | 31 | 7 | <$0.01 | |
GPT-4.5 Preview | 31 | 10 | <$0.01 | |
GPT-4o | 31 | 10 | <$0.01 | |
GPT-4o mini | 31 | 9 | <$0.01 | |
o3-pro | 30 | 13 | <$0.01 | |
o3 | 30 | 25 | <$0.01 | |
o4-mini | 30 | 89 | <$0.01 | |
o3-mini | 30 | 337 | <$0.01 | |
o1 | 30 | 153 | <$0.01 |
いずれのモデルでも利用料金は$0.01以下となりました。入力、出力ともに短い場合は、
1回1円以下で利用できます。
o3、o4-mini、o3-mini、o1のような思考モデルでは、出力自体は短くても、reasoning_tokensというものが出力トークンに追加されています。これは思考の過程で
出力されないトークンが利用されているためです。
タスク2 :文章の生成
タスク2では、出力がある程度長くなるような質問をしてみました。
入力:OpenAIのAPIを用いて、文章を生成する方法について、なるべく詳しくステップごと
に丁寧に解説してください。
出力の一例:OpenAIのAPIを用いて文章を生成する方法について、以下のステップごとに
詳細に解説します。
ステップ1: OpenAI APIキーの取得
︙
結果:
タスク | モデル | 入力トークン数 | 出力トークン数 | 金額 |
タスク2 (短い入力、短い出力) | GPT-4.1 | 40 | 1,037 | $0.01 |
GPT-4.1 mini | 40 | 1,394 | <$0.01 | |
GPT-4.1 nano | 40 | 929 | <$0.01 | |
GPT-4.5 Preview | 40 | 1,412 | $0.21 | |
GPT-4o | 40 | 828 | <$0.01 | |
GPT-4o mini | 40 | 1,100 | <$0.01 | |
o3-pro | 39 | 2,490 | $0.20 | |
o3 | 39 | 2,466 | $0.10 | |
o4-mini | 39 | 2,172 | $0.01 | |
o3-mini | 39 | 2,239 | <$0.01 | |
o1 | 39 | 2,687 | $0.17 |
上記の質問で、出力のサイズはGPTモデルで800~1,400トークン程度、思考モデルで2,200~2,700トークン程度でした。
かかった費用は、GPT-4.1、GPT-4.1 mini、 GPT-4.1 nano、GPT-4o、GPT-4o mini、o3-miniで$0.01以下に収まりました。
一方で GPT-4.5 Preview 、o3-pro、o1では$0.2程度と高くなりました。思考モデルは、
出力トークン数が多くなる傾向があるため、金額も上がりやすくなります。
タスク3 :文章の要約
タスク3では、ある程度まとまった長さの文を入力する例として、短編小説の「羅生門 (7,111文字、7,191Byte、5,982 トークン)」を入力して要約をお願いしました。
入力:次のテキストを要約してください。 テキスト: {羅生門 (5,982 トークン )を記入}
出力の一例:
Summary:「羅生門」は芥川龍之介の短編小説で、平安時代の京都を舞台に、一人の下人
(使用人)が雨やみを待つ間の出来事を描いています。
荒廃した羅生門の下で途方に暮れていた下人は、門の上で老婆が死体の髪の毛
を抜いている場面に遭遇します。老婆は髪を鬘にするために抜いていたが、
下人に追及されると「生きるためにやむを得ず行っている」と弁明します。
老婆の言い分を聞いた下人は、逆に自分も生きるために道徳心を捨てることを
決意し、老婆の着物を剥ぎ取って、夜の闇に消えていきます。
この作品は、人間の逼迫した状況における倫理観の揺らぎや、極限状態での
人間の行動を描いています。
結果:
タスク | モデル | 入力トークン数 | 出力トークン数 | 金額 |
タスク3 (短い入力/短い出力) | GPT-4.1 | 5,999 | 243 | $0.01 |
GPT-4.1 mini | 5,999 | 318 | <$0.01 | |
GPT-4.1 nano | 5,999 | 239 | <$0.01 | |
GPT-4.5 Preview | 5,999 | 306 | $0.50 | |
GPT-4o | 5,999 | 214 | $0.02 | |
GPT-4o mini | 5,999 | 368 | <$0.01 | |
o3-pro | 5,998 | 570 | $0.17 | |
o3 | 5,998 | 402 | $0.08 | |
o4-mini | 5,998 | 798 | $0.01 | |
o3-mini | 5,998 | 1,108 | $0.01 | |
o1 | 5,998 | 582 | $0.12 |
「羅生門」のように短い小説であれば、8k トークンに全文を収めることができます。
作り込んだ長めのプロンプトや、小規模なデータを含めたプロンプトなどはこのくらいの
サイズになることも多いのではないでしょうか。
o1は$0.12、o3-proは$0.17、GPT-4.5 Previewは$0.50かかりました。
一度の実行では大した金額ではありませんが、繰り返し実行する場合は、それなりの金額になりそうです。
GPT-4.1、GPT-4.1 mini、GPT-4.1 nano、GPT-4o、GPT-4o mini、o4-mini、o3-miniは$0.01~$0.02と安価です。コストを抑えたい場合は miniやnanoの付いたモデルが有力な
候補になりそうです。
タスク4: 文章の書き換え
タスク4では、入力に加えて出力も長くなるように、短編小説の中にある漢字をひらがなに書き換えることを求めました。
入力: 次のテキストの漢字部分を「ある日の夕方の出来事です。」→「あるひのゆうがたの
できごとです。」のように全てひらがなに書き換えてください。
テキスト: {羅生門 (5,982 トークン)を記入}
出力:らしょうもん
あくたがわりゅうのすけ
あるひのくれがたのことである。ひとりのげにん《げにん》が、らしょうもん
《らしょうもん》のしたであまやみをまっていた。
︙
結果:
タスク | モデル | 入力トークン数 | 出力トークン数 | 金額 |
タスク4 (短い入力/短い出力) | GPT-4.1 | 6,044 | 6,924 | $0.07 |
GPT-4.1 mini | 6,044 | 5,984 | $0.01 | |
GPT-4.1 nano | 6,044 | 19,669 *1 | $0.01 | |
GPT-4.5 Preview | 6,044 | 1,899 *2 | $0.73 | |
GPT-4o | 6,044 | 6,876 | $0.09 | |
GPT-4o mini | 6,044 | 5,906 | <$0.01 | |
o3-pro | 6,043 | 13,287 | $1.18 | |
o3 | 6,043 | 12,203 | $0.55 | |
o4-mini | 6,043 | 1,287 *3 | $0.01 | |
o3-mini | 6,043 | 33,262 | $0.15 | |
o1 | 6,043 | 9,664 | $0.67 |
*1 同じ文を繰り返し出力して長くなっていた
*2 途中で出力が途切れていた
*3 直接書き換えず、書き換えるためのプログラムを提示していた
人にとっては単純な作業ですが、モデルや試行によって挙動が異なり、出力トークン数も
大きく異なる結果となりました。
GPTモデルのGPT-4.1、GPT-4.1 mini、GPT-4o、GPT-4o miniは、入力と同程度のトークン数を出力していて、適切にひらがなに変換できていると考えられます。
思考モデルの o3-pro、o3-miniと o1は入力に対して1.5~6倍のトークンを出力しています。思考の分だけトークン数が増えることで金額も高めになりますが、このコストをどう考えるかは課題次第でしょうか。
GPT-4.1 nanoは、途中で同じ文を繰り返し出力しており、その分、出力が長くなっていま
した。言語モデルではうまく推論できないと短い文や文字を繰り返すことがありますが、
そのような状態に陥ってしまったのだと考えられます。
GPT-4.5 Previewは、何故か全文を変換してくれず、途中で出力が切れた結果を返すようで
した。何度か繰り返し実行してみたのですが、出力が1500~1900トークン程度で切られて
しまうようでした。
o4-miniは、書き換えた文を出力するのではなく、書き換えるためのプログラムを提示して
いました。人が読む場合はこれでも目的は達成できますし、出力トークン数も少ないのですが、想定と異なるデータが返ってくることで困ることもありそうです。
タスク3と比べると、入力長はほぼ変わらず出力が長くなったタスクですが、同モデルで比較すると、1.5~7倍程度の金額になっています。
出力トークンは入力トークンに比べて2~4倍高価なため、出力の長さは金額に与える影響が
大きいです。
また、出力が途中で途切れていたり、プログラムを出力したりするものもあったため、望み通りの出力をさせるために繰り返しAPI呼び出しを行う場合は、更に金額が
かさみます。
GPTに長い出力を要求している場合、可能であれば、タスク自体を見直して出力を短くできるとコスト削減に役立ちそうです。
タスク5: とても長い文章の要約
タスク5では、128kトークンにおさまる小説として、「坊っちゃん (105,100文字、94,410 Byte、90,765 トークン)」を利用して、要約のタスクを行いました。
入力:次のテキストを要約してください。
{坊っちゃん (90,765 トークン) を記入}
出力の一例:
Summary:『坊っちゃん』は、主人公の坊っちゃんが東京から四国の田舎町に赴任し、
小さな学校で数学教師として勤める物語です。坊っちゃんは東京で遊び呆けて
いたが、父の死後に生活が変わり、教師の職を得るため四国へと向かいます。
彼は正義感が強く、物事への妥協を許さない性格で、新しい土地での生活や
学校での人間関係に戸惑いながらも、地元の慣習や上司、生徒との間で数々の
トラブルに見舞われます。
︙
結果:
タスク | モデル | 入力トークン数 | 出力トークン数 | 金額 |
タスク5 (とても長い入力/ 短い出力) | GPT-4.1 | 90,782 | 599 | $0.19 |
GPT-4.1 mini | 90,782 | 931 | $0.04 | |
GPT-4.1 nano | 90,782 | 691 | $0.01 | |
GPT-4.5 Preview | 90,782 | 216 | $6.84 | |
GPT-4o | 90,782 | 191 | $0.24 | |
GPT-4o mini | 90,782 | 272 | $0.01 | |
o3-pro | 90,781 | 944 | $1.89 | |
o3 | 90,781 | 639 | $0.93 | |
o4-mini | 90,781 | 651 | $0.11 | |
o3-mini | 90,781 | 1,923 | $0.11 | |
o1 | 90,781 | 749 | $1.40 |
入力トークンが長いと処理にも時間がかかり、金額もかさみます。「坊っちゃん」のような長編小説は、100k トークンに近い長さになります。
これだけの長さの入力を扱うと、GPT-4.5 Previewで$6.84にもなります。1ドル=150円と
仮定すると、6.84ドルは1,026円になるため、一度のAPI利用で1,000円を超えるという、
恐ろしい金額になってしまいます。
その一方、これだけのデータを扱っていてもGPT-4o miniでは$0.01程度に収まります。
タスク6 :1Mトークン以下の文章要約
GPT-4.1、GPT-4.1 mini、GPT-4.1 nanoなどのモデルでは、最大1Mトークンという長大な
コンテキストを扱えるようになりました。
タスク6では、青空文庫の中でも長い作品である「罪と罰(内田不知庵訳)(676,878文字、 2,024,413Byte、544,648トークン)」を利用しました。「罪と罰」といえば、岩波文庫では
3冊に分冊されるほど長い小説です。それでも1Mトークンの半分の500kトークン程度にしかならないのですから、1Mトークンの大きさがおわかりいただけるかと思います。
入力:次のテキストを要約してください。
{罪と罰 (544,648トークン) を記入}
出力の一例:
Summary:
【要約】主人公ラスコーリニコフは、ロシアの貧しい大学生。貧困と屈折した自尊心、
「自分は特別な人間か(ナポレオンのような“例外的人間”理論)」という強烈な
観念に悩まされ、老人の金貸し(アリョーナ婆さん)の殺害を計画する。
もともと無害な人間であろうとした彼は「大きな善のためには小さな悪は許さ
れる」という理屈で自分を納得させ、ついに老婆を斧で殺害、さらに偶然現れた
妹リザヴェータも殺してしまう。
しかし犯行後から精神的に追い詰められ、周囲の人間との関係も崩壊していく。
---
結果:
タスク | モデル | 入力トークン数 | 出力トークン数 | 金額 |
タスク6 (極めて長い入力/ 短い出力) | GPT-4.1 | 544,665 | 1,260 | $1.10 |
GPT-4.1 mini | 544,665 | 887 | $0.22 | |
GPT-4.1 nano | 544,665 | 608 | $0.05 |
GPT-4.1は $1.10でした。それなりの金額ですが、大量のデータに対して高品質な分析が必要なタスクであれば利用価値はあるかも知れません。
GPT-4.1 miniは $0.22、GPT-4.1 nanoは $0.05でした。長大なコンテキストが必要なタスクでも、miniやnanoのモデルを利用することで大幅なコスト削減が可能です。
利用用途や頻度に応じた賢いモデル選択をしましょう
これまでの実験結果を表にまとめます。
タスク | モデル | 入力トークン数 | 出力トークン数 | Usageページで 確認された金額 |
タスク1 (短い入力/短い出力) | GPT-4.1 | 31 | 7 | <$0.01 |
GPT-4.1 mini | 31 | 7 | <$0.01 | |
GPT-4.1 nano | 31 | 7 | <$0.01 | |
GPT-4.5 Preview | 31 | 10 | <$0.01 | |
GPT-4o | 31 | 10 | <$0.01 | |
GPT-4o mini | 31 | 9 | <$0.01 | |
o3-pro | 30 | 13 | <$0.01 | |
o3 | 30 | 25 | <$0.01 | |
o4-mini | 30 | 89 | <$0.01 | |
o3-mini | 30 | 337 | <$0.01 | |
o1 | 30 | 153 | <$0.01 | |
タスク2 (短い入力/長い出力) | GPT-4.1 | 40 | 1,037 | $0.01 |
GPT-4.1 mini | 40 | 1,394 | <$0.01 | |
GPT-4.1 nano | 40 | 929 | <$0.01 | |
GPT-4.5 Preview | 40 | 1,412 | $0.21 | |
GPT-4o | 40 | 828 | <$0.01 | |
GPT-4o mini | 40 | 1,100 | <$0.01 | |
o3-pro | 39 | 2,490 | $0.20 | |
o3 | 39 | 2,466 | $0.10 | |
o4-mini | 39 | 2,172 | $0.01 | |
o3-mini | 39 | 2,239 | <$0.01 | |
o1 | 39 | 2,687 | $0.17 | |
タスク3 (長い入力/短い出力) | GPT-4.1 mini | 5,999 | 318 | <$0.01 |
GPT-4.1 nano | 5,999 | 239 | <$0.01 | |
GPT-4.5 Preview | 5,999 | 306 | $0.50 | |
GPT-4o | 5,999 | 214 | $0.02 | |
GPT-4o mini | 5,999 | 368 | <$0.01 | |
o3-pro | 5,998 | 570 | $0.17 | |
o3 | 5,998 | 402 | $0.08 | |
o4-mini | 5,998 | 798 | $0.01 | |
o3-mini | 5,998 | 1,108 | $0.01 | |
o1 | 5,998 | 582 | $0.12 | |
タスク4 (長い入力/長い出力) | GPT-4.1 | 6,044 | 6,924 | $0.07 |
GPT-4.1 mini | 6,044 | 5,984 | $0.01 | |
GPT-4.1 nano | 6,044 | 19,669 *1 | $0.01 | |
GPT-4.5 Preview | 6,044 | 1,899 *2 | $0.73 | |
GPT-4o | 6,044 | 6,876 | $0.09 | |
GPT-4o mini | 6,044 | 5,906 | <$0.01 | |
o3-pro | 6,043 | 13,287 | $1.18 | |
o3 | 6,043 | 12,203 | $0.55 | |
o4-mini | 6,043 | 1,287 *3 | $0.01 | |
o3-mini | 6,043 | 33,262 | $0.15 | |
o1 | 6,043 | 9,664 | $0.67 | |
タスク5 (とても長い入力/短い出力) | GPT-4.1 | 90,782 | 599 | $0.19 |
GPT-4.1 mini | 90,782 | 931 | $0.04 | |
GPT-4.1 nano | 90,782 | 691 | $0.01 | |
GPT-4.5 Preview | 90,782 | 216 | $6.84 | |
GPT-4o | 90,782 | 191 | $0.24 | |
GPT-4o mini | 90,782 | 272 | $0.01 | |
o3-pro | 90,781 | 944 | $1.89 | |
o3 | 90,781 | 639 | $0.93 | |
o4-mini | 90,781 | 651 | $0.11 | |
o3-mini | 90,781 | 1,923 | $0.11 | |
o1 | 90,781 | 749 | $1.40 | |
タスク5 (極めて長い入力/ 短い出力) | GPT-4.1 | 544,665 | 1,260 | $1.10 |
GPT-4.1 mini | 544,665 | 887 | $0.22 | |
GPT-4.1 nano | 544,665 | 608 | $0.05 |
いずれも一度のAPI利用ですが、$0.01以下から$6.84までと幅広い金額が確認できました。
入力データが長い場合は注意が必要です。
94kBの「坊っちゃん」を読み込ませたタスク5では、GPT-4.1 nano やGPT-4o miniは$0.01なのに対して、GPT-4.5 Previewでは$6.84と約700倍の金額になります。GPT-4.5 Previewは突出して高く、次点のo3-proに比べても3.6倍程度の金額となっています。
また、出力の長さも影響します。GPT-4.1モデルを例にすると、出力が短いタスク3 では$0.01でしたが、入力がほぼ同じで出力が長いタスク4では$0.07と7倍程度になっています。
名称にminiやnanoを含むGPTモデルはとても安く、入出力が共に長いタスク4でも$0.01程度に収まっています。
思考モデルのo4-miniや o3-miniも安いのですが、GPTモデルと比較すると一桁高い(GPT-4.1 nanoが入力:$0.100 / 1M トークン、出力:$0.400 / 1M トークンであるのに対して、o4-miniは入力:$1.1/1M トークン、出力:$4.4/1M トークン)上に、思考モデルである
ため、出力トークンが大きくなりがちです。
実際にAPIを利用する際には、一回だけではなく何十回と繰り返し使用することも多いため、どの程度の料金が想定されるかを把握して上手にモデルの選択をしたいですね。

2007年に北海道大学大学院博士課程修了。 2020年より株式会社調和技研でシステム開発や人材育成事業に従事。 複雑ネットワークとしてのSNSの研究や、ニュース記事の分類システム、コンテンツの推薦システムの開発等を経験。現在は言語分野の研究開発を行うとともに、Sapporo AI Laboのプロジェクト「札幌AI道場」において技術指導とチームのメンターを担当している。