ローカルLLMとかもいい感じに活用できないときっと辛くなるよねぇ・・・
Github Copilotの課金形態が変わるらしい・・・;;
悲しいニュースがありましたね・・・
https://github.blog/news-insights/company-news/github-copilot-is-moving-to-usage-based-billing/
英語読めないのでなんとなくでしか理解していないのですが・・・
Github Copilotのプレミアムリクエストの考え方が変わるようですね
これまでは(これも結局よくわかっていないですが)「何回までならリクエストができる」みたいな形式だったのが「どのくらいの入力出力トークンできる」みたいな形式に変わっちゃうみたいですね;;
私は、コーディング系だとあんまり入力出力のトークン数とかを気にせずに参照させまくったり、コード全体を見てもらったりできるのが嬉しいなぁ!!!とか思ったり、自分で聞く専用のポッドキャストを色々作ってもらっていたりして便利!!っていう使い方だったので・・・めちゃくちゃ影響が出そう!! と思っててとても悲しんでおります;;
ローカルLLMをうまいこと使いたいよね・・・
このブログ作ったは良いものの全然更新していなかったり、本来やろうと思ってたポッドキャスト自体を始めることすらできていなかったり!! ですが、このニュースが悲しくて、逆に今「ローカルLLMをうまく使えないだろうか」の熱がちょっと沸いてきています。
・・・いやまあぁ・・・ローカルLLMに限らないですね、「CodexとかClaude Codeとかってどんな感じだろう~?」とか、「OpenRouterで安いものを組み合わせつつ使ったほうが良いのでは?」とかとか!!その辺の熱に燃えています。
まあ、結局CodexとかClaude Codeとかも似たような道を辿ると思っているんですよねぇ~~・・・
料金形態が変わるっていうのもあるんですけど・・・
- 料金が高くなる!
- 制限にかかりやすくなる!!
- 出力結果に規制が入る!!
みたいなね
まあとはいえ、性能自体は本当に魅力的なのですよね!!!
色々考えつつ、ローカルとクローズドの共存をいい感じに…いい感じにしていかねばなぁ・・・と考えている今日この頃でした!!
ローカルモデルだいぶ色々できるらしいのだよなぁ・・・正直「ちゃんとワークフロー見たいなものを組めさえすれば!」きっとすごく有効的に使えるんだろうなと思っていますが、どうなのでしょうか??
ちなみに、このブログを書く前に、「ローカルモデル使ってこの記事について書かせてみる?」ってことで動かしてみたりしたのですが・・・パソコンの性能が足りねぇ!!圧倒的に!!

まあこれも「適切にワークフローを組めれば!」の話なのでしょうけど、Qwen3.6の35b、27b辺りは遅すぎてダメでしたね!!
チャット形式でリアルタイムで何かさせるのであれば、自分の環境だとqwen3.5 9b辺りからかなぁ・・・っていう感じでしたね・・・(それでもだいぶ遅いなぁっていう感じだけど!!!)
多分みんな悩んでいると思うんだよなぁ・・・
そういえば、調べている最中に一瞬だけClaude codeとかも20ドルプランでは使えない?みたいな状態になっていた?っていう話を見かけたりしたなぁ・・・
多分今この辺の事情ってみんな不安になって入ると思うんだよねぇ・・・
色々良い方法があったら教えてほしいですね。っていうのと自分自身も「こんなこと試したよ~」をブログにしていけたらなぁと感じました。