ネタのドラフトを元に Gemini で作成。 スマートウォッチ市場において、その圧倒的なコストパフォーマンスで存在感を放つ Xiaomi。 その最新作とも言える Redmi Watch 5 Lite を購入した。 ここ数年、スマートウォッチはコモディティ化が進んでいるとはいえ、 「自分にとって必要な機能」と「価格」のバランスが取れたモデルを見つけるのは意外と難しい。 多機能だが高価で毎日充電が必要なモデルか、安価だが機能が限定的でオモチャのようなモデルか
ここ数年 emacs 環境を更新していなかったので化石状態だったが、 少しだけパッケージの入れ替えをしてみた。 それが vertico。 vertico は 2021 年辺りに登場したらしいので、 既に 4 年経過していてイマサラ感が半端ないが、 一応説明しておくと vertico は補完フレームワークだ。 emacs の補完フレームワークといえば anything, helm と使ってきたが、 その次世代が vertico になるらしい。 大きな特徴としては、補完候補表示にミニバッファを活用し、動作も軽快ということらしい
Gemini3 が発表されたので、Antigravity を使って Vibe Coding をやってみた。 お題 今回のお題は、金融企業の Web ページにありがちな簡易資産シミュレーター。 前回のお題とくらべてハードルが下っている気がしないでもないが、 同じツールを作るのも芸がないのと、既存のものを作っても嬉しくないので、 その辺りは気にしない。 なお、前回の tcp forward ツールで作成するのは go のスクリプト 1 ファイルだが、 今回は HTML, CSS, JS の3ファイルになるので、 複数
CUI で動くアプリを作ると、 そのアプリ実行中に stdin からのキーボード入力を受け付けるケースが少なくない。 そして、そのキーボード入力をしたときに shell では標準的な C-a や C-f, C-b などキーが効かずにガッカリする。 そうした時に利用するのが bubbletea になる。 なお、bubbletea は go のライブラリなので、今回は go の CUI アプリを前提とする。 また、go のターミナル制御系で利用できるライブラリは他にもあるが、 今回は bubbletea を使う。 理由としては、各
RVC で音声生成 AI技術が話題になってから、 音声生成 AI のサービスが幾つか立ち上がっている。 また、サービスとして立ち上がっているくらいだから、 それらは品質もそれなり以上なんだろう。 (実際には使っていないので不明) ただ、RVC の特徴であるローカルで動くこと、そしてオープンソースであることは 個人で遊ぶ分には非常に魅力的であるので、 RVC を動かすことに一定の需要はあるだろう。 ということで、 RVC を動かそうと思ったが github
最近巷で話題の Vibe Coding を、周回遅れではあるが体験してみました。 その際に感じたこと、得られた知見をここに記しておきます。 TL;DR Vibe Coding は、プログラマにとって非常に有用な開発手法の一つ AI によってプログラマが職を失うのは、まだ当分先の話だと感じた(具体的な期間は不明) 特に非同期処理の設計や実装において、LLM はまだ課題を抱えているように見受けられる 開発環境 今回の Vibe Coding は、以下の環境で実施しました。 エディタ: VS Code LLM: Claude Sonnet
SBI 証券をマネーフォワードに連携させているユーザなら気付いているかもしれないが、 この週末にマネーフォワードで確認できる SBI 証券投資信託銘柄の推移グラフが異常になった。 現状の問題 以下は、その異常についてのマネーフォワード公式の通知である。 <公式通知> 要は、投資信託銘柄の情報は名前で管理しているから、 その名前が変ってしまうと別銘柄として扱ってしまい推移が見れなくなる、ということ。 どうしてこのよ
TensorFlow の 2.20.0 が 8/14 にリリースされたが、 Geforce RTX5000 シリーズは対応されていなかった。 ただ nightly だと動くことが分ったので、 ここでは nightly を使った uv 用の pyproject.toml と TensorFlow を使ったサンプルを載せておく。 Geforce RTX5000 シリーズ対応の TensorFlow をセットアップする uv 用の pyproject.toml 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 [project] name = "note-base-tf" version = "0.1.0" description = "Add your description here" readme = "README.md" requires-python = ">=3.11.5" dependencies = [ "datasets>=3.0.1", "flax>=0.10.6", "image-classifiers>=1.0.0", "ipywidgets>=8.1.7", "keras>=3.10.0", "matplotlib>=3.9.0", "notebook>=7.4.3", "nvidia-cudnn-cu12>=9.12.0.46", "opencv-python>=4.11.0.86", "pillow>=11.2.1", "scikit-learn>=1.6.1", "tensorboardx>=2.6.2.2", "tf-nightly>=2.21.0.dev20250829", ] サンプル <https://github.com/ifritJP/tf-rtx50x0-notebook>
windows で huggingface transformers を使って gpt-oss を動かすのにハマったのでメモ。 TL;DR RTX5070Ti の VRAM 16GB で gpt-oss を動かすには triton 3.4.0 と triton-kernel が必須 triton は linux のみの対応なので windows native は不可能。 wsl が必須 チャットするだけなら LM studio などのチャット専用ツールを利用するのが手間もなく簡単 gpt-oss OpenAI GPT3 以降の初のオープン な LLM である gpt-oss がリリースされたとのこと。 このネタは、 以下の内容から transformers を使ってローカル実行する部分を実施した際のメモになっている。 <https://huggingface.co/blog/welcome-openai-gpt-oss> 上記には、 transformers 以外にも llama.cpp, vLLM transformers serve が 紹介されて
今回は、ComfyUI node の開発方法についてのネタです。 なお、以下のサイトに ComfyUI のオフィシャルな開発方法が載っているので そこを見るのが一番良いのですが。。。 <https://docs.comfy.org/custom-nodes/overview> node の動き node を作って初めて分ったことですが、 ComfyUIでは、各ノードが個別のクラスとして定義されています。 そして、プロンプトを実行するたびに、 そのクラスの新しいインスタンスが生成されて処理が実行されます。 重要なのは、 「プロンプトが実行される度に