INSIGHT

インサイト

#2-1 AI時代のスタートアップに求められるものはデータドリブンな経営だ!!

2026.2.18

RSS

今回は、マネタイズが得意なエンジェル投資家として多くのスタートアップへ投資・支援を行ってきた川崎さんにお越しいただきました!

スタンフォード大学の人間中心AI研究所(HAI)が毎年発行している『AI Index Report 2025』について、川崎さんが分析されたnoteをベースにレポートの内容を解説していただきました!
※本記事は2025年5月30日の収録内容をもとに制作しています。そのため、現在の状況とは一部異なる場合があります。

◼︎ゲストプロフィール

川崎裕一(エンジェル投資家)
1976年12月20日生まれ。1999年、慶応義塾大学経済学部卒業、日本シスコシステムズ株式会社入社(現シスコシステムズ合同会社)、ネットイヤーグループ株式会社を経て、2004年8月、株式会社はてな入社。同年12月同社取締役副社長に就任。2010年2月、株式会社kamadoを設立し、代表取締役に就任。2012年12月、株式会社ミクシィが株式会社kamadoを買収。これに伴い2013年1月より株式会社ミクシィに入社。2013年1月24日同社執行役員クロスファンクション室室長。2013年6月25日同社取締役。2014年8月11日スマートニュース株式会社執行役員広告事業責任者、投資事業担当。2024年4月よりエンジェル投資家。 

巨大モデル終焉論の先にあるもの──オープンウェイト化と選択肢の拡大

——まず、AI Index Report 2025を読んで、全体としてどのような印象を持ちましたか?大型モデルが限界に向かうという見方もありますが。
大型モデルがネガティブになったというより、選択肢が広がったという印象です。
これまで大規模言語モデルは学習コストが莫大で、一回のトレーニングに数百億円単位の資金が必要とされてきました。ですが、Llamaを中心とするオープンウェイト型LLMの登場で状況が変わりました。モデルの「重み」が公開され、外部から調整できるようになった。これが大きいと思っています。

——オープンソースとは違うのですか。
ソースコードが公開されているのがオープンソースですが、オープンウェイトは学習済みの重みそのものを触れる状態にすることです。
情報と情報の距離、つまり重み付けを調整できるようになったことで、用途特化やカスタマイズが一気に進みました。巨大モデル一択ではなく、「大きいものも小さいものも選べる」時代になったというのがポイントです。

——この変化はスタートアップにとってはどう映るのでしょうか。
APIを使うのか、自前でカスタマイズするのかという選択肢が生まれたこと自体が大きい。
戦略の自由度が上がりました。

コアからエッジへ──LLMの小型化がもたらす構造変化

——モデルの小型化についても触れられていましたね。
以前はLLMは巨大データセンター、いわゆる「コア」にしか置けませんでした。膨大な電力と計算資源が必要だったからです。ですが今は学習効率が上がり、推論コストも下がりました。用途を限定すれば、スマートフォンやウェアラブルといった「エッジ」側でも動かすことができます。

——エッジで動くことの意味は何でしょうか。
通信が不要になるため、レスポンスが速くなります。特定用途に絞ったモデルを端末内で処理できれば、速度もセキュリティも向上します。工場のライン制御のようなユースケースでは特に重要です。

——この流れは過去にもあったのでしょうか。
あります。ネットワークの歴史です。
中央集権型から分散型へ移り、コア・ミドル・エッジへと構造が変わっていった。AIでも同じことが起きています。エッジの計算能力が上がれば、トラフィックは効率化される。この構造変化はかなり再現性があると見ています。

推論コスト280分の1──需要爆発が生む進化圧力

——推論コストが10か月で280分の1になったという話もありました。
2022年11月に100万トークンあたり20ドルだったものが、2024年10月には0.07ドル。
数十円レベルです。単位あたりのコストが急激に下がる背景には、需要の爆発があります。

——需要がコストを下げる?
そうです。投資が集まり、効率化圧力がかかる。
推論プロセスの最適化やデータの蒸留、ハード構成の改善が進む。さらに米中競争が加速し、国家レベルの競争構造が進化を止めない。冷戦期の軍事技術開発と似た力学が働いています。

——この進化は止まらないと。
構造的に止まりません。
競争がある限り、進化は続くと考えています。

日本のスタートアップはどこを狙うべきか──LLMを作るな、データを解け

——では、日本のスタートアップにとってAIは投資機会でしょうか。
大規模言語モデルそのものを作るのはやめた方がいいと思います。
汎用LLMで勝つのは難しい。OSを今から作るようなものです。

——ではどこを狙うべきでしょうか。
二つあります。
一つはアプリケーション。LLMを本当に活かす用途は何か考えることです。
もう一つはデータです。データ枯渇問題が近づいている中で、どうやって安く大量にデータを供給できるかが鍵になると考えています。

——データとは具体的にどういったものでしょうか。
非構造化データを構造化することだと思います。
写真や手紙、アナログ情報にはタグも属性も付いていないものが膨大にあります。これを整備するだけでも価値があります。また、これから取得するデータを最初から構造化する仕組みを作るのも重要です。

——それが買収につながる可能性も?
あります。
大手が必要とするデータ取得手段を持っていれば買われる。スタートアップは誰かの問題を解く存在です。エンドユーザーだけでなく、基盤モデル企業の課題を解くという視点も持つべきです。

——最後に、やるべきでないことについても教えてください。
LLMそのものを作ること。GPUに挑むこと。
ハードウェアは資本集約的で難易度が高い。日本で勝つなら、構造的な問題を解く領域を選ぶべきです。


今回の内容はポッドキャストでも配信しておりますので、詳細の内容を知りたい方はぜひ音声でもお聞きください!

ANOBAKAコミュニティに参加しませんか?

ANOBAKAから最新スタートアップ情報や
イベント情報をタイムリーにお届けします。