ログイン
会員登録
トレーニングデータ
書いてみる
関連タグ
#AI (321,637)
#人工知能 (195,872)
#データセット (886)
#モデル (14,684)
#AIとやってみた (37,406)
#データ (35,036)
人気
急上昇
新着
定番
有料のみ
20件
人気の記事一覧
AIの進化は、AIのトレーニングが鍵
りゅうしん
5か月前
14
Data Contamination Calibration for Black-box LLMs
Ikemen Mas Kot
6か月前
1
アートの未来を守る:Nightshadeによるデータポイズニングの可能性
0xpanda alpha lab
11か月前
9
用語集: 「過学習」 <ー 基本AI用語です
ネット商社
1年前
38
Pandora's White-Box: Increased Training Data Leakage in Open LLMs
Ikemen Mas Kot
8か月前
1
美しいという表現
ロボ9A
10か月前
2
ChatGPTの本質と限界について
オクヤス/9d9.inc
1年前
4
人工知能と野良猫や偏見や日本語の話をした
スエイシユミ
1年前
3
チャット君は世界中の言語を一つに出来る?
錬金術師ぷルル
1年前
1
人間とAI(人工知能)の違い。
Kazutaka Kobayashi@論理的思考×課題解決
1年前
1
生成AIのトレーニングデータとは
ブライティアーズAI研究所
6日前
AIに対する寓話的解釈(AI学習にAI素材を使うとモデル崩壊)
project SORA
3か月前
1
Skimming of Electronic Health Records Highlighted by an InterfaceTerminology Curated with Machine Learning Mining
Ikemen Mas Kot
6か月前
Infini-gram: Scaling Unbounded n-gram Language Models to a Trillion Tokens
Ikemen Mas Kot
6か月前
Teaching Specific Scientific Knowledge into Large Language Models through Additional Training
Ikemen Mas Kot
7か月前
🧠トレーニング損失が継続的に減少し、検証損失が増加する傾向が見られる場合、それは過学習の兆候です。
あたり帳簿
10か月前
グーグルAIバード:バードは1.56T語のテキスト、Google 検索で利用可能な約10%に相当。★バードとは!? インターネットも読めます。1.56Tは、約156万本の記事に相当(ニューヨーク・タイムズで100年間に掲載された記事の約10倍に相当。
起業&経営者&教授:ハワイで脳出血(脳梗塞)で片麻痺&車椅子改造&不労所得&ファイヤー達成者:アロハ
1年前
LIMA: Less Is More for Alignment
Ikemen Mas Kot
1年前
BioREx: Improving Biomedical Relation Extraction by Leveraging Heterogeneous Datasets
Ikemen Mas Kot
1年前
絶滅危惧種など画像が少なくAI適用が妨げられていた業界でAIを訓練するための合成データの作成に取り組むSynthetaic がシードで350万ドルの資金調達を実施
¥100
STARTUP LOG|スタートアップの挑戦を、もっと身近に
4年前