go の bubbletea で簡易ターミナルエミュレータを作る

CUI で動くアプリを作ると、 そのアプリ実行中に stdin からのキーボード入力を受け付けるケースが少なくない。 そして、そのキーボード入力をしたときに shell では標準的な C-a や C-f, C-b などキーが効かずにガッカリする。 そうした時に利用するのが bubbletea になる。 なお、bubbletea は go のライブラリなので、今回は go の CUI アプリを前提とする。 また、go のターミナル制御系で利用できるライブラリは他にもあるが、 今回は bubbletea を使う。 理由としては、各

RTX5000 シリーズで RVC を動かす

RVC で音声生成 AI技術が話題になってから、 音声生成 AI のサービスが幾つか立ち上がっている。 また、サービスとして立ち上がっているくらいだから、 それらは品質もそれなり以上なんだろう。 (実際には使っていないので不明) ただ、RVC の特徴であるローカルで動くこと、そしてオープンソースであることは 個人で遊ぶ分には非常に魅力的であるので、 RVC を動かすことに一定の需要はあるだろう。 ということで、 RVC を動かそうと思ったが github

Vibe Coding をやってみた所感 (Go言語でのTCPフォワーダー開発事例)

最近巷で話題の Vibe Coding を、周回遅れではあるが体験してみました。 その際に感じたこと、得られた知見をここに記しておきます。 TL;DR Vibe Coding は、プログラマにとって非常に有用な開発手法の一つ AI によってプログラマが職を失うのは、まだ当分先の話だと感じた(具体的な期間は不明) 特に非同期処理の設計や実装において、LLM はまだ課題を抱えているように見受けられる 開発環境 今回の Vibe Coding は、以下の環境で実施しました。 エディタ: VS Code LLM: Claude Sonnet

マネーフォワードの SBI 証券連携の話

SBI 証券をマネーフォワードに連携させているユーザなら気付いているかもしれないが、 この週末にマネーフォワードで確認できる SBI 証券投資信託銘柄の推移グラフが異常になった。 現状の問題 以下は、その異常についてのマネーフォワード公式の通知である。 <公式通知> 要は、投資信託銘柄の情報は名前で管理しているから、 その名前が変ってしまうと別銘柄として扱ってしまい推移が見れなくなる、ということ。 どうしてこのよ

TensorFlow を Geforce RTX5000 シリーズで動かす

TensorFlow の 2.20.0 が 8/14 にリリースされたが、 Geforce RTX5000 シリーズは対応されていなかった。 ただ nightly だと動くことが分ったので、 ここでは nightly を使った uv 用の pyproject.toml と TensorFlow を使ったサンプルを載せておく。 Geforce RTX5000 シリーズ対応の TensorFlow をセットアップする uv 用の pyproject.toml 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 [project] name = "note-base-tf" version = "0.1.0" description = "Add your description here" readme = "README.md" requires-python = ">=3.11.5" dependencies = [ "datasets>=3.0.1", "flax>=0.10.6", "image-classifiers>=1.0.0", "ipywidgets>=8.1.7", "keras>=3.10.0", "matplotlib>=3.9.0", "notebook>=7.4.3", "nvidia-cudnn-cu12>=9.12.0.46", "opencv-python>=4.11.0.86", "pillow>=11.2.1", "scikit-learn>=1.6.1", "tensorboardx>=2.6.2.2", "tf-nightly>=2.21.0.dev20250829", ] サンプル <https://github.com/ifritJP/tf-rtx50x0-notebook>

Windows で RTX5070Ti を使って gpt-oss を動かす

windows で huggingface transformers を使って gpt-oss を動かすのにハマったのでメモ。 TL;DR RTX5070Ti の VRAM 16GB で gpt-oss を動かすには triton 3.4.0 と triton-kernel が必須 triton は linux のみの対応なので windows native は不可能。 wsl が必須 チャットするだけなら LM studio などのチャット専用ツールを利用するのが手間もなく簡単 gpt-oss OpenAI GPT3 以降の初のオープン な LLM である gpt-oss がリリースされたとのこと。 このネタは、 以下の内容から transformers を使ってローカル実行する部分を実施した際のメモになっている。 <https://huggingface.co/blog/welcome-openai-gpt-oss> 上記には、 transformers 以外にも llama.cpp, vLLM transformers serve が 紹介されて

ComfyUI node の開発方法

今回は、ComfyUI node の開発方法についてのネタです。 なお、以下のサイトに ComfyUI のオフィシャルな開発方法が載っているので そこを見るのが一番良いのですが。。。 <https://docs.comfy.org/custom-nodes/overview> node の動き node を作って初めて分ったことですが、 ComfyUIでは、各ノードが個別のクラスとして定義されています。 そして、プロンプトを実行するたびに、 そのクラスの新しいインスタンスが生成されて処理が実行されます。 重要なのは、 「プロンプトが実行される度に

ComfyUI のインストールと使いこなしに必要な Diffusion モデル概要入門

今回は、 ComfyUI をインストールし、 自分で簡単なワークフローを構築するために必要な Diffusion モデルの概要について説明します。 なお、以下の文書の想定読者は、 コンソールでコマンドを叩く程度の IT リテラシーを持っていることを前提にしています。 インストール先は Windows, Linux, Mac どれも対応しています。 ComfyUI インストール ComfyUI は Python で開発されています。 今現在 Python のインストールは uv で行なうのがもっとも簡単・便利で早いので、 まずは uv のインストールから始め

Windows で RTX5070 TI を使った ComfyUI のパフォーマンス

先日 AI モデル開発検討用に RTX5070 TI を購入した。 せっかく、お高い GPU を買ったので色々とローカル AI ツールを試している。 ローカル AI ツールは様々な用途の AI があるが、 とりあえず一番面白そうな画像生成 AI ツールを試す。 画像生成 AI ツールも色々あるが、自由度と分かり易さと更新頻度から ComfyUI を選択。 なお、自分は開発系の作業は windows 専用のアプリ開発でない限りは、wsl を利用している。 ComfyUI も wsl で作業したいところだが、気になるのはパフォーマ

clang が fatal error: 'cmath' file not found でビルド失敗する

pip でとあるモジュールをインストールしようとしたところ、 次の clang のエラーでインストールが失敗した。 fatal error: 'cmath' file not found 今回は、このエラーの対応方法の話。 原因 pip のモジュールインストールは、python スクリプトのインストールだけでなく、 C 言語等の別言語で開発されているライブラリのビルドも行なう。 このビルドにおいて、C 言語は C コンパイラ、 C++ 言語は C++ コンパイラが当然利用される。 では、このコンパイラに何か使われるか?