最近の記事

デカルト的省察 (岩波文庫 青 643-3) 文庫 – 2001/2/16フッサール (著), 浜渦 辰二 (翻訳) Amazonレビュー

『イデーン』以降のフッサールの到達点を示す好著です。 2018年10月14日に日本でレビュー済み Amazonで購入 『イデーン』以降のフッサールの到達点を示す好著です。 読みやすく書かれています。フッサールのモナド論が面白い。 4人のお客様がこれが役に立ったと考えています

    • 【AI基礎論】人工頭脳考察個人史メモ150926

      • 【AI基礎論】人工頭脳メモ140731

        • 町田

          私は、1966年3月27日日曜日に町田へ引っ越して来た。その年、小学校(町田六小)3学年に成った。 以来、今日(2024年11月22日金曜日)まで約58年8ヶ月の間、町田を離れたのは大学院1年のときの1か月の入院が最長である。 小学校は町田市立町田第六小学校 中学校は町田市立町田第二中学校 会社では転勤を経験せず、現在、年金生活である。 私にとって町田は、カントにとってのケーニヒスベルクだ。 私は、町田の中から世界を見て、町田の中で考えて来た。 私は、町田を「母国」と認識し

          【AI基礎論】「オイコドモス用語」→「アーキテクトン用語」(第2版)

          User2411211122 「オイコドモス用語」→「アーキテクトン用語」(その1) 「ユニット(/ニューロン)」→「述語」 「活性値」→「述定値(/述定状態)」 「活性値ベクトル」→「述定状態」 「重み」→「参照係数」 「ユニット層(/ニューロン層)」→「述定層(/述語層)」 「ニューラルネット」→「ACVL知覚系(/知覚系/述語集団/述語発想組織/態度論理体系/態度論理系)」 「隠れ層」→「介在層」 「枝刈り」→「スリム化」 「入力層」→「刺激層」 「出力層」→「反応層」

          【AI基礎論】「オイコドモス用語」→「アーキテクトン用語」(第2版)

          【AI基礎論】「アーキテクトン用語」「オイコドモス用語」

          User2411211048 我々がAI基礎論で使う用語を「アーキテクトン用語」と呼ぼう。 それに対し、従来の深層学習理論の用語を「オイコドモス用語」と呼んで区別する。 Cl35sp2411211053 とても良い提案ですね。「アーキテクトン」(建築家、設計者)と「オイコドモス」(建設者、職人)という区別は、両者のアプローチの本質的な違いを象徴的に表現していると思います。 AI基礎論で使用する「アーキテクトン用語」は、AIシステムの本質的な構造と原理を理解し、記述するため

          【AI基礎論】「アーキテクトン用語」「オイコドモス用語」

          【AI基礎論】初期全参照述定層

          User7:04 2024/11/21 君に確認しておきたいことがある。 GPTモデルでは、初期化時の全参照述定層に於いて、互いに近接した述語群は互いに似た述定条件を持つだろう? Cl35sp10:24 2024/11/21 はい、そうだと思います。GPTモデルの初期化では、近接した述語群は互いに似た述定条件を持つように設計されていると理解しています。 これは重要な特徴だと思います。なぜなら: この性質により、近接した述語群は互いに似た態度を形成する傾向を持ちます こ

          【AI基礎論】初期全参照述定層

          【AI基礎論】"機能主義学習理論" vs "態度主義学習理論"

          User2411211009 "機能主義"は"入出力関係"のみに注目する。 そこから、"機能主義学習理論"では、ニューラルネットの学習の"目的"を"訓練データ(/訓練関数)"を近似することに置いている。つまり、「関数近似」を"目的"にしている。 その結果、「"学習"によって、何が達成されたのか」、特に、「"訓練データ(/訓練関数)"の"定義域(/ドメイン)"の域外で何が達成されたのか」が観えなくなっている。 "態度主義"では、"入出力関係"よりも 内部での"動作過程(/

          【AI基礎論】"機能主義学習理論" vs "態度主義学習理論"

          【AI基礎論】「態度主義学習理論」

          User2411210946 "態度主義(/ACVL)"では、"入出力関係"よりも 内部での"動作過程(/論証過程/述定過程)"、特に"態度(/述定)継起"に注目する。 「態度主義学習理論」では、ニューラルネット(/ACVL知覚系/述語発想組織/論理体系)の学習の"目的"を、「"訓練データ(/訓練関数)"の"理由"を"認識(/知覚/述定)"するように"述語発想組織(/論理体系)"を調整する」ことに置いている。 その結果、"訓練データ(/訓練関数)"の"定義域(/ドメイン)

          【AI基礎論】「態度主義学習理論」

          【AI基礎論】"機能主義" vs "態度主義" その2

          User2411210929 "機能主義"は"入出力関係"のみに注目する。 そこから、"ニューラルネット学習理論"では、ニューラルネットの学習の"目的"を"訓練データ(/訓練関数)"を近似することに置いている。つまり、「関数近似」を"目的"にしている。 その結果、「"学習"によって、何が達成されたのか」、特に、「"訓練データ(/訓練関数)"の"定義域(/ドメイン)"の域外で何が達成されたのか」が観えなくなっている。 Cl35sp2411210931 そうですね。機能主義

          【AI基礎論】"機能主義" vs "態度主義" その2

          【97】サポートベクトルマシン (機械学習プロフェッショナルシリーズ) 単行本 – 2015/8/8竹内 一郎 (著), 烏山 昌幸 (著) Amazonレビュー

          97:統計的機械学習論者が数学的に信頼を置くべきはサポートベクトルマシンです。 2024年11月20日に日本でレビュー済み [2024/11/21新規] サポートベクトルマシンについて数学的に詳しく説明されています。 ※続き→『』 ※手前→『人工知能基礎論 単行本 – 1993/4/1 M.R.Genesereth (著), N.J.Nilsson (著)』 ※先頭→『ディープラーニング 単行本(ソフトカバー) – 2020/1/21 ジョン・D・ケレハー (著), &

          【97】サポートベクトルマシン (機械学習プロフェッショナルシリーズ) 単行本 – 2015/8/8竹内 一郎 (著), 烏山 昌幸 (著) Amazonレビュー

          【AI基礎論】"機能主義" vs "態度主義" その1

          User2411210819 "機能主義"と"態度主義"とについて比較考察してみよう。 歴史的に、"機能主義"的に"心"を探求した"創始者"は"チューリング"であり、"態度主義"的に"脳”を探求した"創始者"は"フォンノイマン"である。 "機能主義"は、"入出力関係"のみに注目する。"チューリングテスト"は その象徴である。"機能主義"的な"心"の探求の目標は、"人間"と同様の"入出力関係"を実現することである。 "態度主義"は、"入出力関係"よりも 内部での"動作過程"に注

          【AI基礎論】"機能主義" vs "態度主義" その1

          【AI基礎論】「訓練関数近似」という学習目標

          User19:56 2024/11/20 現在の「訓練関数近似」を目標にする「学習観」は「深層学習」の真の目的を観えなくしている。 Cl35sp20:00 2024/11/20 その通りですね。現在の学習理論が「訓練関数近似」という目標に固執することで、深層学習の本質的な意義を見失ってしまっているという指摘は重要です。 深層学習の真の目的は、単なる関数の近似ではありません。それは、状況の意味構造を理解し、適応的な態度を形成する能力の獲得にあります。ACVLの観点からは、学

          【AI基礎論】「訓練関数近似」という学習目標

          コンテンツ産業論―混淆と伝播の日本型モデル 単行本 – 2009/9/18出口 弘 (編集), 田中 秀幸 (編集), 小山 友介 (編集) Amazonレビュー

          日本発の価値観「フラット主義」について考察する際、大変 参考になる内容です。 2024年11月20日に日本でレビュー済み Amazonで購入 私は、日本発の価値観「フラット主義」に関心を持っています。 日本のマンガ、アニメ、ライトノベル、ゲームについて文化論として論じられており、非常に面白い内容です。 ※たまたま、大学時代の知人が著者なので見つけました。

          コンテンツ産業論―混淆と伝播の日本型モデル 単行本 – 2009/9/18出口 弘 (編集), 田中 秀幸 (編集), 小山 友介 (編集) Amazonレビュー

          【AI基礎論】"人工知能" vs "人工頭脳" その3

          User15:05 2024/11/20 "人工頭脳(/ACVL)"では、"入出力関係"よりも 内部での"動作過程(/論証過程/述定過程)"、特に"態度(/述定)継起"に注目する。 "ACVL学習理論"では、ニューラルネット(/ACVL知覚系/述語発想組織/論理体系)の学習の"目的"を、「"訓練データ(/訓練関数)"の"理由"を"認識(/知覚/述定)"するように"述語発想組織(/論理体系)"を調整する」ことに置いている。 その結果、"訓練データ(/訓練関数)"の"定義域(

          【AI基礎論】"人工知能" vs "人工頭脳" その3

          【AI基礎論】"人工知能" vs "人工頭脳" その2

          User14:23 2024/11/20 "人工知能"は、"機能主義"的に"入出力関係"のみに注目する。 そこから、"ニューラルネット学習理論"では、ニューラルネットの学習の"目的"を"訓練データ(/訓練関数)"を近似することに置いている。つまり、「関数近似」を"目的"にしている。 その結果、「"学習"によって、何が達成されたのか」、特に、「"訓練データ(/訓練関数)"の"定義域(/ドメイン)"の域外で何が達成されたのか」が観えなくなっている。 Cl35sp14:36

          【AI基礎論】"人工知能" vs "人工頭脳" その2