上に貼った前回の記事で、Digital OceanのサービスでAIモデルの学習ができないかと調査してみたのですが、
どのサービスも意外と面倒くさそうというか、中々敷居は高そうだと思いました。
下記、表によるまとめです。
| サービス名 | プラットフォーム名 | 概要 | 所管 |
|---|---|---|---|
| Gradient AI | Digital Ocean | AIエージェントの調整用サービス | エージェントの調整とか、サーバーレスでの実行メインのため、モデル学習用途ではない。 |
| GPU Droplet | Digital Ocean | GPU付きのインスタンスを使えるサービス | 価格はAWSより安く、使い勝手は悪くなさそうだが、使えるリージョンがアメリカとカナダしかない。 また、開設したばっかりのアカウントではクォータ制限のためGPU Dropletが立ち上げられないし、クラスタ用に複数GPUが付いているモデルはそもそもリージョン内に空きがないようで購入できず。 |
| Gradient Notebook | PaperSpace | Jupyter Notebookを特定のモデルと組み合わせたサービス | CLIによる操作が現状不可? 2024年中には既にCLIが廃止されたとの記載あり。 サービスは使えるが、本格的な学習というよりはNoteBookを使いたいという目的用か。 |
| Gradient Core | PaperSpace | GPUを備えたVMを立ち上げられるサービス | (恐らく)Digital Ocean側とクォータが共有されているのか、現時点ではインスタンス立ち上げられず。 CLIはあるものの、正直Gradient NoteBookの例を考えると利用が怖い。 |
クラウドって多分抽象化の局地
薄々勘付いてましたが、クラウドというのはあくまで抽象化したレイヤーの上に何かを置くという発想の局地なので、モデルを作り込みたいとか、そういう基盤的要素が入ってくるものは、時代とともに置き換わっていくのだな、と感じました。
そう考えると、ある程度まとまった期間や、領域ごとに仕分けられた、不揮発性が求められるデータが重要になってくるAIとは、
相性がいいようで根っこの部分は重ならないのかもしれません。
ローカルでモデルの学習をしよう
調べてみると、学習のフレームワークとしてはNvidia一強というわけでもないようで、Mac用のフレームワークとしてMLXというものがApple 公式から出されています。
今後Macから変える予定もないので、まずはここから調べてやってみようと思います。
(LMStudioやOllama使ってもいいのですが、一応最小でも動きそうなやつからやってみます。)