Digital OceanでAIモデルの学習はやめた方がいいのかも – クラウドの限界に気づく?

上に貼った前回の記事で、Digital OceanのサービスでAIモデルの学習ができないかと調査してみたのですが、
どのサービスも意外と面倒くさそうというか、中々敷居は高そうだと思いました。
下記、表によるまとめです。

サービス名プラットフォーム名概要所管
Gradient AIDigital OceanAIエージェントの調整用サービスエージェントの調整とか、サーバーレスでの実行メインのため、モデル学習用途ではない。
GPU DropletDigital OceanGPU付きのインスタンスを使えるサービス価格はAWSより安く、使い勝手は悪くなさそうだが、使えるリージョンがアメリカとカナダしかない。
また、開設したばっかりのアカウントではクォータ制限のためGPU Dropletが立ち上げられないし、クラスタ用に複数GPUが付いているモデルはそもそもリージョン内に空きがないようで購入できず。
Gradient NotebookPaperSpaceJupyter Notebookを特定のモデルと組み合わせたサービスCLIによる操作が現状不可?
2024年中には既にCLIが廃止されたとの記載あり。
サービスは使えるが、本格的な学習というよりはNoteBookを使いたいという目的用か。
Gradient CorePaperSpaceGPUを備えたVMを立ち上げられるサービス(恐らく)Digital Ocean側とクォータが共有されているのか、現時点ではインスタンス立ち上げられず。
CLIはあるものの、正直Gradient NoteBookの例を考えると利用が怖い。

クラウドって多分抽象化の局地

薄々勘付いてましたが、クラウドというのはあくまで抽象化したレイヤーの上に何かを置くという発想の局地なので、モデルを作り込みたいとか、そういう基盤的要素が入ってくるものは、時代とともに置き換わっていくのだな、と感じました。
そう考えると、ある程度まとまった期間や、領域ごとに仕分けられた、不揮発性が求められるデータが重要になってくるAIとは、
相性がいいようで根っこの部分は重ならないのかもしれません。

ローカルでモデルの学習をしよう

調べてみると、学習のフレームワークとしてはNvidia一強というわけでもないようで、Mac用のフレームワークとしてMLXというものがApple 公式から出されています。
今後Macから変える予定もないので、まずはここから調べてやってみようと思います。
(LMStudioやOllama使ってもいいのですが、一応最小でも動きそうなやつからやってみます。)


関連記事

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です