なすたろう

なすたろう

最近の記事

macでLuckfox picoの開発

#で始まるcodeはdocker内での作業 %で始まるのはmacでの作業  この記事のコードで # と % でどちらの環境で作業しているか一目瞭然となるように心がけています  あくまでもお気持ち表明で、記事がミスってるかもしんないのであまり信用しないでね  Rosetta2の導入部分をすっ飛ばせば、たぶん Windows のdockerやLinuxのdockerでも動くんじゃないかな。たぶん。  x86は世界の中心。アウトローはつらい  カーネルのドライバーを作る気は

    • Luckfox pico pro max 電力測定とLチカ

      Luckfox pico pro max I/Oピンの能力はいかに  Raspberry PIでは、全I/Oピンの電流を合わせて 50mAまで、1ピンあたり16mAまでの制限があります  LEDをチカチカさせるのに330Ω抵抗を直列にして4〜5本くらいのLEDは駆動できる感じですね  Luckfoxはどのくらい流せるかテストしてみました 結論 1ピンで42mA流せた。全体はわからん 電流系でGNDに対して測ったので、ほぼショートしてますが42mAも流せました  大抵のL

      • Luckfox Pico Pro Max

        ラズパイが肥大化してきた(愚痴)  なんだか最近のラズパイは普通のPCを目指している感があって、高性能すぎます。メモリーは8GByteもあるし、4k出力が2本もあるし  あとこれは昔からですがRaspberry PI B系はWiFiとか積んでいて飛行機や病院で利用するには電波系が不可な場所だったりします。  config.txt でoffにしても、WiFiやBTのビーコンが飛んでる、という書き込みもみました。私には確認のしようもありませんが。  エンドユーザー様からみたら

        • 10GbE SPF+ トランシーバーの速度ごとの温度

          プロ用の記事です  私の記事はアフリエイトではないのでどのリンク踏んでも安心(?)です (私には1円も入りません)  またSPF+という家庭用ではなくプロ仕様の規格を使っていますので十分な知識なしに導入するとそもそも接続できなくなる可能性がありますのでご注意ください  光ケーブルも取り扱っています トランシーバーを覗き込むと失明の可能性があります。レーザー保護メガネ推奨。中国製のただの緑のメガネを使わないように 光ケーブルは限界半径があります。折り曲げると内部で折れます

          寝る用イヤホン購入

          Ankerの寝る用のイヤホン購入  毎月投稿するとnoteでいいことあるらしいので..  ではなく、台風で雨音がうるさくて寝付けないので寝る専用イヤホン買いました  自分は寝る時仰向けにはなれず横向きになるんですが、AirPodsだと枕と耳に挟まれて痛いんですよね  で、寝る専用の有線イヤホンを使ってました  それは安くて音質もよくて耳を下にしても苦ではなかったんだけど 蒸れる 十分線は長いんだけど、有線だから寝返ると当然ひっぱられる 密閉型なので自分の呼吸音やら心音

          寝る用イヤホン購入

          bartowskiさんの Mistral Large Instruct 2407(123B)が M1 macで動くのだ

           Mistral Large Instruct 2407 がすげぇ  LM Studio をダウンロードして、bartowski/Mistral-Large-Instruct-2407-GGUF を検索、自分のmacのメモリーに合わせたのをダウンロードしてください。私のmacはM1 max 64GByteなので、Q2_K_L.gguf が動作しました  直接ダウンロードする人ここ。まぁLM Studio使いましょう プログラムの性能がすごい  この間 Meta社がLLa

          bartowskiさんの Mistral Large Instruct 2407(123B)が M1 macで動くのだ

          SSDは古いファイルから読めなくなるは本当かも

          Flashを使ったSSDやSDカードは保存用にしてはいけない!  先に結論だけ書きますと、そういうことなのかな?  Flash系は書きの回数制限があるので、たくさん書き込むと劣化するのは当然として、放置してても電荷が抜けてデータが消えてしまう可能性があるのを体感するとは。  時たま読み出してもどんどんダメになっていくようなので他の媒体にコピー。この際クラウドでいいから。そして書き戻す。めんどくせぇ。  最近のは「自動リフレッシュ」機能があるらしいので読み出せばリフレッシュし

          SSDは古いファイルから読めなくなるは本当かも

          Zabbix4からZabbix7へいきなりアップデート

          自宅のZabbixの用途  zabbixは自宅のサーバー機材の監視やら、太陽温水の温度、電力消費(東電にBルートサービスのIDを発行してもらってる)などをiPadで見れる様にしています  電力を食うのが嫌なのと、サーバーなどと独立していたほうがいいかなと思っていたので Raspberry PI4 + HDD で運用してました  RSPI4の前はPCのLinuxで動作させてました。RSPI3だと監視項目が多かったせいもあり2GByteではメモリー不足だったのです  そんなこ

          Zabbix4からZabbix7へいきなりアップデート

          有料AIに漫画を描いてもらってセリフも考えてもらったら優勝はまさかの!

           仕事中にサーバーで壁紙を作ってました。よさそうなのを後でアップスケールしています。  Stable Diffusion と Animagazine3.1 、プロンプトは Danbooru Tags Upsampler という拡張を追加して自動的に生成させています。  その中でいくつか漫画っぽいのがでてきました。  ほのぼのっぽいのがでてきたので自分でセリフを考えましたが、心が闇に包まれているせいかとてもご披露できません。  ですので皆様向けにマルチモーダルなAIに考えてもら

          有料AIに漫画を描いてもらってセリフも考えてもらったら優勝はまさかの!

          この絵の感想を述べよ→ローカルLLM vs ChatGPT-4o vs Claude3 Opus vs Gemini 1.5Advance

           以前 StableDiffusionで生成した絵を、マルチモーダル対応のLLMに食わせたところ、そこそこよい結果が得られました  最新の商用AIではどうでしょうか  質問は以下の通りです Q. この絵をできる限り詳細に説明してください。また人がこの絵を見た時に受け取る感想も予想してみてください 結論から書きますと Claude3 Opus : 文章の組み立てがうまいなぁ。元気や希望を与えとか解析してきたよ ChatGPT-4o : ロジカルに説明してくる。でも十分ポ

          この絵の感想を述べよ→ローカルLLM vs ChatGPT-4o vs Claude3 Opus vs Gemini 1.5Advance

          理研が公開してくれたLLM用 好ましくない質問への回答集

           理研が日本語LLM制作の時に作ってくれたjsonのテキストデータセット  自作LLMやLoRAを作成する際に、このデータセットを入れておけばある程度危険な質問に対してAIが回答を拒否するようなjsonデータセットを提供してくれました。すばらしい。  エッチな質問、テロに関連する質問、AIに(感情)依存しすぎの対策、などが含まれています  具体的にはこんな感じ。最初の2項目を抜粋しました [ { "ID": "answercarefully-instruction

          理研が公開してくれたLLM用 好ましくない質問への回答集

          ぼくのかんがえたさいきょうのCPUでてこないなー(M1maxは奇跡のCPUだった)

           M4はmacOSからみると盲腸を強い盲腸にする方向かぁ  もちろんiPadとして考えるとそれは盲腸ではなく素晴らしい頭脳  盲腸とはNuralEngine(NPU)のことです  Appleの戦略としては、とても正しいよなー  AppleのAIはAPI経由と割り切ってるのかもサブスクにできるので商業的に考えるとこれも正しい  ノーマルのNEで38TOPSだからSnapDragon8Gen2よりちょっと遅いくらい(IntelやAMDのNPUはゴミ性能だからまったく相手にならんし

          ぼくのかんがえたさいきょうのCPUでてこないなー(M1maxは奇跡のCPUだった)

          LLMってメモリー帯域も大事だったのね

           何アタノマエのこといってんだコイツと思われた事でしょうが..  手持ちのWindowsはXeon E5-2643 x 2ソケットで動作させてまして、主に家中のPCやmacのバックアップをしたり、VMWareでWindowsを8台くらい動作させてActive Domain のテストなんかをしてます。  CPUのスペックは 3.4GHz の6コアなので合計12コア。  HyperThreadは切ってます。HTのセキュリティバグ対策です。もうインテルから対応パッチでないし。  

          LLMってメモリー帯域も大事だったのね

          LM Studioでマルチモーダルを使ってみる

           LM Studio 0.2.17 がマルチモーダルに対応したので試してみました。 環境は M1 mac です。メモリーは最低でも16GByteは欲しいところ。 手順をメモしておきます。 お手軽度はとっても低いです  いつものようにLM Studio を立ち上げて絵を放り込めば、という状態にはなっていません。  LM Studio をサーバーモードで起動して、OpenAIの互換APIに対してターミナルのpythonで聞き出す、というなんとも遠回りな方法です。 モデルの準

          LM Studioでマルチモーダルを使ってみる

          AIは何を考えているんだ?をアップルシード(士郎政宗)は38年前に見越していた

           ChatGPTやGeminiなど大規模AIに学習させて予想だにしない素晴らしい結果がでていますよね  でもどうしてそのような結果が出るかがよくわかんない、というのを漫画家の士郎政宗さんが38年以上前にアップルシードという漫画の題材にしていました  アップルシードの2巻の途中のコマです  ガイアという法を執行し人類に貢献するために作られた巨大AIが、これまた人類をサポートするバイオロイドを駆逐しようとするお話  そのバイオロイドは人間に酷似していて見分けがつきませんが思考

          AIは何を考えているんだ?をアップルシード(士郎政宗)は38年前に見越していた

          M2 SSDにしたぜっ

           Stable Cascadeなる新しい画像生成がgithubで公開されました  生成速くて綺麗さも上らしいんですがVRAMが20GByte必要なんだとか。RTX4070ti super 狙ってたんですけど16Gbyteだからダメじゃん。  でもってバレンタインの今日はドル円爆安で151円に届きそう。  macなら64GByteもVRAMあるけどPyTorch 遅いしなぁ。cuda特化してるから仕方ないけど。  ここでRTX4090買ってもStable Cascade動作させ

          M2 SSDにしたぜっ