This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
核汚水の海洋放出議論!日本政府はAI兵器を使用してネットワーク全体をリアルタイムで監視し、「虚偽の情報」がないかを監視していたことが暴露された
出典:新志源
追記:アエネアスはとても眠いです
ここ数日、日本が核汚染水の太平洋への放出を正式に開始したというニュースが広く注目を集めた。
放出の直前、一部のメディアは、日本政府が昨年からAIツールを使用して、福島原子力発電所の核下水の放出計画に関連する発言を監視していると報じた。
今年6月、AIは日本の外務省高官らが国際原子力機関(IAEA)に巨額の政治献金を行っていたとする韓国メディアの報道を発見した。
この枠組みには、日本向けの情報だけでなく、他の国や地域の日本向けの情報も含まれていることは注目に値します。
イベントレビュー
2011年3月、地震と津波により福島第一原子力発電所の冷却システムが破壊され、3基の原子炉の核燃料が溶融し、放射性物質が漏洩した。その後発生した大規模な汚染により、数万人が避難を余儀なくされました。
それ以来、爆発後に過熱した炉心を冷却するために130万立方メートル以上の海水が使用された。
この汚染水も収集され、敷地内にある 1,000 個以上のステンレスタンクに保管されます。
汚染を引き起こした 64 種類の放射性元素のうち、主に人間の健康に脅威をもたらす放射性元素は、炭素 14、ヨウ素 131、セシウム 137、ストロンチウム 90、コバルト 60、トリチウム 3 です。
これらの核汚水を処理するために、東京電力(東京電力)は自社開発の高度液体処理システム(ALPS)を採用しており、プロセスは共沈、吸着、物理ろ過の5段階に分かれています。
2021年4月、日本政府はこれらの処理済み核下水の海洋放出を正式に承認した。
さまざまな国や国際機関が表明した懸念にもかかわらず、日本の計画推進は妨げられていない。
同時に、日本の外務省もAIを活用して核下水に含まれる放射性物質に関するオンライン報告を監視し、大量の広報資料を作成することでそのような情報の濃度を薄めようとしている。
外務省は7月21日、核下水処理過程における安全保護について日本語、英語、フランス語、スペイン語、ロシア語、アラビア語、中国語、韓国語で説明するアニメーション動画をツイッターで公開した。
このビデオでは、高度液体処理システム (ALPS) を通じて工場の水がどのように規制基準に合わせて浄化されるかを説明しています。そして、排出された核下水は広い海域に放出される前に海水で100倍に希釈されていると強調した。
AI モニター音声
実際、インターネット世論を監視するこの技術は、すでに AI の分野で深く広範囲に研究されています。
最も人気のあるものの 1 つは、アルゴリズム、機械学習モデル、人間を組み合わせて、ソーシャル メディアで公開される「フェイク ニュース」に対処する方法です。
2018年のTwitterの調査では、フェイクニュース記事は本物のニュースよりも人間によってリツイートされる可能性が70%高いことが示されています。
一方、本物のニュースが 1,500 人のグループに届くまでには約 6 倍の時間がかかり、ほとんどの場合、1,000 人を超える人に届くことはほとんどありません。対照的に、人気のあるフェイクニュースは 100,000 人もの人々に届くことがあります。
Sphere は、数十万件の引用を一度にスキャンして、対応する主張をサポートしているかどうかを確認できる初の AI モデルです。
Sphere は、疑わしいソースを見つけると、より強力なソースや修正を推奨して、エントリの精度を向上させることができます。
Sphere の開発は、プラットフォーム上の誤った情報に対処するための Meta の取り組みを示しています。
Metaは数年にわたり、Facebook、Instagram、WhatsApp上で拡散した誤った情報により、ユーザーや規制当局から厳しい批判にさらされてきた。 CEOのXiao Zha氏は、この問題を議論するために議会に呼び出されたこともある。
フェイクニュースを発見し、ソーシャルメディアのコミュニケーションパターンを調査する
ヨーロッパには、ジャーナリストやファクトチェッカーがフェイクニュースを検出するのに役立つソフトウェアツールを構築している Fandango プロジェクトもあります。
さらに、システムは、ファクトチェッカーによってフラグが付けられたフェイクニュースに基づいて、同様の単語や意見を含む Web ページやソーシャルメディアの投稿を検索します。
GoodNews と呼ばれるこのプロジェクトは、従来のフェイクニュース AI 検出ツールを覆します。
さらに、多くの場合、フェイク ニュースは画像である可能性があり、自然言語処理技術を使用して分析するのは困難です。
この結果は、Facebook ではフェイクニュースが「いいね!」よりもはるかに多くのシェアを獲得する可能性がある一方、通常の投稿はシェアよりも「いいね!」を獲得する傾向があることを示唆しています。 GoodNews はそのようなパターンを発見することで、ニュース項目の信頼性スコアを付けます。
そこから、彼らは AI アルゴリズムをトレーニングし、どの話が嘘でどれがそうでないかをモデルに教えました。
純粋なテキストに加えて、安定拡散などのビジュアル生成モデルの急速な発展も、ディープフェイクの問題をますます深刻にしています。
マルチモーダルメディア改ざんでは、さまざまなニュース報道の写真に含まれる重要人物の顔(下の写真のフランス大統領の顔)が置き換えられ、テキスト内の重要なフレーズや単語が改ざんされます(「歓迎します」という肯定的なフレーズ) 」は「辞任を余儀なくされる」という否定的な表現に変更されました。
現在、この作品は CVPR 2023 に採択されています。
このモデルは、ダブルタワー構造に基づくマルチモーダル意味融合と推論のモデルアーキテクチャに基づいており、浅い改ざん推論と深い改ざん推論により、マルチモーダルな改ざんの検出と位置をきめ細かく階層的に実現します。
浅い改ざん推論では、操作を意識した対照学習を使用して、画像エンコーダーとテキスト エンコーダーによって抽出された画像とテキストの単峰性の意味的特徴を調整します。同時に、シングルモーダル埋め込み機能は、クロスアテンション メカニズムによる情報対話に使用され、ローカル パッチ アテンション集約メカニズム (ローカル パッチ アテンション集約) は、画像改ざん領域を特定するように設計されています。
深い改ざん推論では、マルチモーダル アグリゲーターのモダリティを意識したクロスアテンション メカニズムを使用して、マルチモーダル セマンティクス機能がさらに融合されます。これに基づいて、特殊なマルチモーダル シーケンス タグ付けとマルチモーダル マルチラベル分類が実行され、テキスト改ざん単語の位置が特定され、より詳細な改ざんタイプが検出されます。
実験結果によると、研究チームが提案したHAMMERは、マルチモーダルおよびシングルモーダルの検出方法よりも正確にマルチモーダルなメディア改ざんを検出し、位置を特定できることが示されています。