2024/05/31
「ペトレイアス長官失脚」は「『無人機(ドローン)戦争』がらみの暗闘の産物」?(思案) ・1228(少なくとも「大量破壊兵器並みの規制が喫緊の課題」ってか・・)
それこそ「民間レベルじゃなく国家レベルで大量破壊兵器並みの規制実施すべき」段階でして、その破壊力は核化学生物兵器に匹敵モノなだけに…((((;゚Д゚))))ガクガクブルブルそれこそ「ドローンを筆頭とした無人兵器開発配備」において「人工知能も広義の意味での無人兵器」ってのを改めて‥(;´д`)トホホ
ーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーー
オープンAI “ロシアなど拠点のグループ 生成AIで世論操作” 2024年5月31日 20時01分
生成AI、ChatGPTを手がけるアメリカの企業オープンAIは、ロシアや中国などを拠点とする5つのグループが自社の生成AIを世論の操作に利用していたと発表しました。日本に関する情報の拡散にも利用されたとされ、アメリカ大統領選挙などを前に生成AIによる世論操作の危険性を示しています。
オープンAIは30日、AIによる世論操作をめぐる最新の傾向についての報告書を発表しました。
それによりますと、ロシアや中国、イラン、それにイスラエルを拠点とする合わせて5つのグループが、秘密裏に自社の生成AIを世論操作に利用していたということです。
生成AIは、SNSのアカウントや投稿する文章の作成、外国語への翻訳などに利用され、投稿の内容は、
▽ロシアによるウクライナへの軍事侵攻や、
▽ガザ地区でのイスラエルとイスラム組織ハマスの戦闘のほか、
▽アメリカの政治情勢など、
多岐にわたっていたとしています。
このうち、中国を拠点とするグループは、東京電力福島第一原子力発電所の処理水の放出を非難する文章を英語や日本語などでインターネット上に投稿していたということです。
報告書は、アメリカ大統領選挙などを前に生成AIによる世論操作の危険性を示しています。
生成AI 世論操作の詳細
報告書では、ロシア、中国、イラン、それにイスラエルに関係する5つのグループが、オープンAIの生成AIを使い、世論操作を行っていたとしています。
また生成AIは文章や画像だけでなく、プログラミングにも使用されていたと分析しています。
このうちロシアの「ドッペルゲンガー」と名付けられた活動ではウクライナ、アメリカ、EU=ヨーロッパ連合などを否定的に、ロシアを肯定的に描いたコンテンツを公開し、ウクライナは弱く、腐敗しており、敗北寸前だとした内容を投稿しているとしています。
また、中国の「スパムフラージュ」と名付けられた活動では中国政府を称賛したり、反体制派やアメリカ政府、IT大手マイクロソフトを批判したりするコンテンツを、主に中国語で作成していたとしています。
中国語だけでなく、日本語や英語、それに韓国語で書かれたものもあったということです。
日本語で書かれたものについて報告書では、2023年後半に日本が東京電力福島第一原子力発電所からの処理水放出で海洋環境を破壊していると非難する記事を作成したと紹介していて、こうした記事は日本の大手ブログサービスにも投稿されていたということです。
不自然な投稿 処理水放出の時期に複数出される
オープンAIの報告書で指摘された不自然なブログなどの投稿は、東京電力福島第一原子力発電所の処理水の海洋放出が始まった時期の去年9月から10月にかけて複数出されていました。
「処理水ではなく核汚染水だ」とか「日本の汚染水排出は世界中に被害をもたらす」などといった、中国側からの反発を反映したものと同様の内容になっているのが特徴で、中には日本語だけでなく英語や韓国語、ロシア語でも発信しているブログの投稿もありました。
さらに、生成AIによる文章の特徴がある同じ文言で、「日本の漁業関係者」が処理水の放出に反対しているとする投稿が複数のブログサイトなどで見られました。
専門家 “真偽の判断 より難しくなってくる”
インターネットで広がるフェイク情報に詳しい桜美林大学の平和博教授は「生成AIのメリットである自動化と効率化が中国やロシアなどの影響工作で用いられているようになってきている。今のところ、大きな影響力を持つところまではきていないが、今後、生成AIがさらに高度化していく中で人間とのやり取りと区別がつかないようになる可能性もある。そうした状況も見据え、AIの開発企業がしっかりとした安全対策を行う必要がある」と話しています。
東京電力福島第一原子力発電所の処理水の海洋放出をめぐって、平教授は中国側からの反発を反映したような同様の文言による投稿が日本の複数のブログで見られたことを確認したということで、「オープンAIが指摘しているような生成AIを使った自動化による投稿とみられる。生成AIの翻訳機能を試したような形跡がうかがわれる状況も確認できた」と述べました。
そのうえで平教授は「一般のユーザーがコンテンツそのものの真偽を判断することはより難しくなってくるので、発信元が確かなものか、まず気をつけて判断をしていくことが大事になってくる。影響工作は国境やSNSなどのプラットフォームを超える形で展開されるので、関係する国や機関が連携しながら対応していくことが重要だ」と指摘しました。(NHKより抜粋)
ChatGPT手がける企業 AIの安全対策強化のため委員会を設置 2024年5月29日 7時26分
生成AI、ChatGPTを手がけるアメリカの企業、オープンAIは、AIの安全対策を強化するため、安全性に関する重要な決定について勧告を行う委員会を設置しました。
オープンAIは28日、AIの安全対策を強化するためアルトマンCEOらでつくる委員会を設置したと発表しました。
委員会は会社のすべてのプロジェクトの安全性に関する重要な決定について取締役会に対して勧告します。
会社が究極のAIとされるAGI=汎用人工知能に向けて次のモデルを開発するなか、90日間をかけて会社の安全対策などを評価するということです。
オープンAIをめぐっては、今月中旬に辞職した幹部が「ここ数年、安全性は華やかな製品より後回しにされてきた」などとSNSで批判していました。
また、アメリカのメディアによりますと会社が13日に発表した生成AIの最新モデルの音声機能の一部について、俳優のスカーレット・ヨハンソンさんが「自分の声に不気味なほど似ている」などと抗議する声明を出しました。
会社側は、「似せたつもりはない」などと指摘を否定する一方、音声機能の一部を停止する措置をとっていました。
安全対策に関心が集まるなか、会社としては委員会の設置で安全性を重視する姿勢を示すねらいがあると見られます。(NHKより抜粋)
高橋洋一「日本の解き方」 AIの法規制をどうすべきか 高リスクとされる企業の採用活動や教育分野での利用 規制緩い日本は見直し急務だ
欧州連合(EU)閣僚理事会は5月21日、人工知能(AI)を包括的に規制する規則案(AI包括法案)を採択した。
EU官報への掲載から20日後に施行される。提供が禁止されるAIシステムに関する規定などは施行から6カ月後に、生成AIに関する規定などは施行から12カ月後に適用を開始し、全面的な適用開始は2026年となる。
AI包括法案の規制内容は、AIのリスクに応じてAIシステムを規制するものだ。容認できないリスクを伴う用途についてはAI利用を禁止し、高リスクのAIシステムについては厳格な要件を課す。
一方で、リスクが限定的なAIシステムについては透明性要件のみを課し、最小リスクのAIシステムについては新たな義務は課さない。
禁止されるのは、子供や障害を持つ人などの脆弱性につけ込むようなもの▽「ソーシャルスコアリング」と呼ばれる個人の特徴などに基づく信用格付け▽潜在意識に働きかけて行動を誘導する「サブリミナル技術」を組み込んだAIなどだ。
高リスクとされるAIは、企業の採用活動や教育分野での利用などだ。この場合、リスク管理や人間による監視などの要件が課せられる。
リスクが限定的なものとしては、生成AIがあり、原則透明性要件のみとなる。個人の私的な生成AI利用は規制対象外になるだろう。
筆者は自分のユーチューブ「高橋洋一チャンネル」(登録者数約110万人)の会員向けサービスで、「高橋洋一対Chat(チャット)GPT」という企画を行っている。
会員からの質問に対してチャットGPTに答えてもらい、筆者がその上の回答をできるかどうかという趣向だ。多くのケースでチャットGPTに勝っていると自負しているが、最近のバージョンアップによる技術進歩を実感している。筆者のサービスは「生成AI」を明記しているので透明性要件をクリアしている。
実は、日本ではEUや米国と比較してAIが著作物を使用することに対して規制が緩い。日本は18年に著作権法を改正し、AIが画像や文章を権利者に連絡することなく自由に学習し営利・非営利を問わず利用できるが、この規定をどうするのかと言う問題がある。
EUは、AI規制を進めるだけでなく、「AI開発」についても積極的に支援する。AI包括法案には、隔離された環境下で革新的なAIシステムの開発やテストなどを可能にする規制緩和策「AI規制サンドボックス」規定が盛り込まれている。これで、米国が先行し世界的な競争が激化している状況に対応する。
同法は域外適用、つまりEU域内へAI関連の製品やサービスを提供する可能性のある企業は全て適用対象になるので、日本企業も無関係でない。最も重い違反の場合、企業に「3500万ユーロ(約60億円)」か「年間世界売上高の7%」のいずれか高い方を制裁金として科す。
日本もAIの法規制で参考にすべきだろう。 (夕刊フジより抜粋)