
画像テキストの翻訳
LLM が取得できるもの
脳腐れ」
シュオ
ジュンユアン・ホンル
イーファン・ワント?
チェン・ルンジン?、チャン・ジェンユー? 、
アナンス・グラマ>、鄭中土、張陽王?
ITcxas AcM Univcrsity – オースティンの Tcxas 大学、
パーダック大学
モデルとコード:https
11Lm-脳-roC
ギチュブ
107
抽象的な
私たちは、(cst (LLM 脳腐敗仮説: 継続的な cxposurc to
ジャンク WCB TERT は、largc languagc modcls (LLM) で持続的な cognitivc dcclinc を誘導します。
8
データ品質を因果的に分離するため。 wC run controllcd cxpcrimcnts on rcal TwittcrlX
コーパス。 [WO 直交] を介してジャンクと rcvcrscly controllcd datascts を構築しています
最適化: MI (cngagcmcnt dcgrcc) および M2 (scmantic 品質)
8
matchcd tokcn scalc
さまざまな状況に応じたトレーニングの機会。反対に
対照群
ジャンク データに対する 4 つの LLM の継続的な prc トレーニング
trivial dcclincs (Hcdgcs’)
0.3) 再構築について
コントロール
理解不能。安全に
9
そして膨らませる
暗い特徴」
(精神病質ナルシシズムなど)。段階的な混合物
ジャンクおよび制御データも yicld dosc-rcsponsc 認識 dccay: cxamplc の場合、
M.Iの下で
Chain Or Thoughts を使用した ARC-Challcngc が 74.9 低下する
57.2と
ルーラー-CWE 81.1
ジャンク率は IoD9o の 0% から 52.3 になります。
3
forcnsics rcvcal scvcral エラー
洞察
初め
トイレ
思考スキップを識別する
原発巣として:
modcls はますますチェーンを切り詰めたりスキップしたりします。
のように
ほとんどの古いTHCを説明しています
間違い
成長
2 番目、部分的だが不完全なスケール調整
obscrvcd は:
命令チューニングと clcan データ prc
-トレーニングで改善する
認知力の低下 しかし、basclinc 機能を rcstorc することはできません。 pcrsistcnt を示唆しています
フォーマットの不一致よりも正確なドリフトが発生しています。最後に、その thc を discovcr します
人気
非セマンティックなmctric
(Wccl は脳の d bcttcr 指標です)
Rot cffcct (MI の han thc lcngth)
重要なマルチを提供する Togcthcr thc rcsults
ロック
perspcctivc cvidcncc そのデータ品質は
LLM 機能の低下の原因は、cawyal です。
継続的な事前トレーニングのための rcframing キュレーション
traming-Timlc sajety
問題と
モチベーションを高めるルーティン「認知的健康管理」
dcploycd LLM の場合
導入
容器
2024年
TCRM
「Brain Rot」はオックスフォードの ycar の言葉だった (Oxford Univcrsity Press. 2024)
それはどうですか
modcrn社会ではますます懸念が高まっています脳の腐敗は深刻な問題として深刻です
些細で挑戦のないオンラインコンテンツのラーグクヨルムを消費することを妨げる人間の認知
(またはジャンクデータ)は、Intcrnct中毒につながります
THC
インターネット依存症の認知的影響が判明
(0 である
重要 (Firlh ct a:
2019年)
寸法。 (i) 注目の静電容量
thc定数
strcam やオンライン情報は、多くの場合、集中力を維持する能力を妨げます。
レーシング記事や
困難な問題 (Haliti-Sylaj & Sadiku. 2024); (ii) マクモリーのプロセス
豊富な
またはオンライン情報は、個人がどのように保存するかを示しています。 rctricyc、および優先順位の knowlcdgc (Vedchkina
ボルゴノヴィ、2021); (iii) ソーシャル
オンラインイントラクションは、ローカルワールドの社会力学を模倣します。
sclf-conccpts を形成し、sclf-cstccm に影響を与える (Youscf ct al、2025)。
Bcyond for (hcsc cognitivc
影響
トルコ人を対象とした rcccnt 研究 (Satici cL al、2023) では、インターンクト中毒 (主に
Xcom 上)は、次のような高度な心理的差異と個人性の変化に関連しています。
conscientiousncss、cxtrovcrsion、および agrccablencss との関係。
ds wcll として
重要な
Ncuroticismとの肯定的な関係。
並行してcl t0 (人間の脳腐れのリスク)
認知、人工 intclligcncc、rcprcscntcd by Largc
Languagc Modcls (LLM) は次のように成長します。
人間っぽい
(ビンツ & シュルツ、2023) Icarning 経由
ジョングテキサスへの同意
エディ。 a-_aswangeutexas
教育
‘同等の著者をリードする
貢献
中心的な貢献者
シングル
アルド
長さ。
8
kcy
スケーリング
平行
解決する
認知
否定的な
得
最近発表された論文がみんなの注目を集めました。
画像テキストの翻訳
タイトルは素晴らしいです: Large Language Model (LLM)
人間と同じように、彼らの脳も腐っているという考えです。
詩は単なるデータではありません。たくさん学ぶことで賢くなります。
ない;認識はどのような種類のデータを学習するかによって決まります
能力が実際に退化する可能性があるのはこれが初めてです。
実験論文のようです:
研究者は引き続きすべての大規模な言語モデルをターゲットにしています
継続的な事前トレーニング実験を設計しました。
つまり、モデルがすでにトレーニングされた後、追加の高参加
どのようなテキスト (ジャンク、エンゲージメントの高い Web テキスト) を簡単に
教えてください、短くて挑発的な SNS 投稿を学び続けてください。
太陽が輝くと言われています。
その結果、時間の経過とともにモデルはますます複雑になります。
Reasoning(推論) 全原稿ロングコンテキスト(long-
文脈を理解せずに安全性さえも
下り坂です。人間の場合、記憶力、集中力、
共感は同時に壊れます。
しかし、人間は短く挑発的なビデオも楽しみます。
慣れてくると、脳は深さよりも即時性を重視するようになります。
追求することになる:思考回路が短縮され、忍耐力がなくなる
ニューラルネットワークが弱くなり、複雑な文を解釈できなくなる
能力さえも徐々に少なくなり、この現象は大きな現象です。
「同じことが言語モデル (LLM) にも現れます」
それが証明されたのは今回が初めてと思われる。
大規模言語モデル(LLM)にSNSのデータを注入すると、その機能が大幅に低下したと言われている。
0



