2025年1月17日 (金曜日)

Copilot

利用者が積極的(能動的)にダウンロードし,起動する操作をしない限り,デフォルトでは全く存在しないようにしてあるのでなければプライバシー情報や企業秘密等を無権限で収集する違法な仕組みになると考えられる。

補助機能は使用したい利用者だけに提供されるべきものだ。

補助機能が存在しないほうがよいと考える利用者を基準としてデフォルトを設計すべきだ。

Copilotを含め,現在提供されている補助機能の多くは,自然言語それ自体に関して何もわかっていないエンジニアが開発していると推定される。その証拠に,間違った示唆しか与えず,私の仕事に深刻な悪影響を与えている。幼稚園レベルの言語能力しかない者がどうして世界レベルの専門論文を書くことを仕事としている者に対して(日本語との関連において)偉そうに教示できるのだろうか?

一般に,自然言語の自動処理と関連するシステムは,1000年に1人未満レベルの真の天才だけがその開発を担当すべきだ。それ以外の者が担当すると社会全体に対して有害な影響しか与えない。

辞書に登録すれば解決するようなタイプの問題もあり得るが,そういうことを利用者が行うと,MS社が勝手にノウハウを奪っていくことになるので,すべきではない。

WindowsとOfficeは,全世界からありとあらゆる情報を収集するためのAIエージェントの一種だと考えて利用するのが正しい。

***

Windows 10のサポート期間終了が迫っている。

しかし,Windows 11に切り替えると,軍事機密,一般的な国家機密,企業秘密,個人のプライバシー等と関連する機密情報が常時MSのクラウドに吸収され続けることが明らかだ。つまり,MSから見れば素っ裸にされることになる。

Windows 11に切り替えるのではなく,全く別の方策を考えるべき時が来ている。

巨大なクラウド+AIは,常に,世界の圧倒的多数の人々にとっての潜在的敵だ。

EUを含め,世界の主要な監督当局は,最大レベルまで監督を強めるべきだと考える。

米国の関連当局を含め,世界各国の独占禁止法または競争法の主務官庁は,MSの経営とCopilotのようなAI関連のサービス部門の経営を完全に分離しなければ競争法(反トラスト法)に明白に反する事態を招くということを理解すべきだと思う。

同じことは,Googleについても言うことができる。

 

 

| | コメント (0)

2025年1月 8日 (水曜日)

米国において偽情報のファクトチェック等を廃止するとどうなるか?

カウンターとして,特定の国からのサイバー戦の一部としての偽情報のポストが圧倒化する事態が発生するかもしれない。

海外との通信回線を切断しても,自律的なAIエージェントのような秘密モジュールが既に無数のスマートフォン等内に格納されており,それらが起動すると手のつけられないような状況が発生し得る。

他方において,洗脳されやすい人々が暴徒化し,米国が内戦状態に陥ることはあり得る。その内戦の過程において大統領も当該企業の代表者も惨殺されるということがあり得る。秩序が維持されていれば,内戦勃発の確率が低下し,また,悲惨なことが起きる確率も低下する。

治安の崩壊を防ぐためには,インターネット上の偽情報の抑止が必須であり,プロバイダに対してその義務を負わせることも必須である。もし当該プロバイダにはそれができないというのであれば,当該プロバイダは廃業すべきだろう。

表現の自由は,治安が維持されているときにおいてのみ成立する。

治安が存在しない社会では,ほぼ全ての自由が蹂躙され,ほぼ無意味化または空文化する。

社会の支配的立場にある者は,当然のことながら,そのようなことを正しく理解すべきだ。

 

 

| | コメント (0)

2024年12月 8日 (日曜日)

Microsoftの自動情報収集機能の情報セキュリティ上の懸念と批判

下記の記事が出ている。

 Microsoft Expands Access to Windows Recall AI Feature
 DARK Reading: December 7, 2024
 https://www.darkreading.com/application-security/microsoft-expands-access-windows-recall-ai-feature

***

この懸念と批判は正しい。このままだと,世界中の全てのIDやパスワードなどがMicrosoftのデータベース内に自動的に収集される可能性がある。無論,同社内に存在しているロシアや中国の工作員は,それらのデータを悪用して(米軍及びNATO軍,FBI及びCIAを含め)世界中の全ての機関・組織の情報セキュリティの仕組みを破壊することが可能となることだろう。

しかし,この機能は,既に実装・運用されており,機能の実行を阻止しようとするとブラウザ等において劣化したレベルの機能しか提供されないような仕組みが導入されているように見える。

各国の関係当局は,独占禁止法違反行為の有無を調査した上で,もしそうであるとすれば,同社のAI関連のビジネスをそれ以外のビジネスと完全に分離するように企業分割を命じるべき段階にあると考えられる。

Google及びMetaに関しても同じ。

生成AIまたはLLMの訓練のためのデータの自動収集は,それ自体として違法行為であり,特にPCやスマートフォンのようなクライアントマシン上で入力されたデータや閲覧画面等のデータの自動収集と自動学習(訓練のための使用)は,違法性が顕著だと言える。

***

現代人は,「法の支配」が喪失した世界の中で生きている。

「約束は守られるべし」との法格言は既に機能していない。

現実存在し得る法理論は処理主義(『ネットワーク社会の文化と法』参照)を基礎とする法理論のみ。

 

 

| | コメント (0)

2024年10月13日 (日曜日)

法と情報雑誌59号(第3分冊)

法と情報雑誌59号(第3分冊)を作成し,Web上で公表した。

 法と情報雑誌59号(第3分冊)
 http://cyberlaw.la.coocan.jp/Documents/LawandInformationMag_No59C.pdf

この号には欧州評議会人工知能枠組み条約(CETS No. 225)[参考訳] が含まれている。

 

[追記:2024年10月18日1:45]

誤りが発見されたので,修正版と置き換えた。

[追記:2024年10月18日9:15]

誤りが発見されたので,修正版と置き換えた。

[追記:2024年10月31日6:40]

誤りが発見されたので,修正版と置き換えた。

[追記:2024年11月1日3:50]

誤りが発見されたので,修正版と置き換えた。

[追記:2024年11月9日1:50]

誤りが発見されたので,修正版と置き換えた。

[追記:2024年11月12日2:55]

誤りが発見されたので,修正版と置き換えた。

 

 

| | コメント (0)

2024年9月13日 (金曜日)

AI導入による失業が現実化か?

下記の記事が出ている。

 AI ruling on jobless claims could make mistakes courts can’t undo, experts warn
 ars technica: September 11, 2024
 https://arstechnica.com/tech-policy/2024/09/ai-ruling-on-jobless-claims-could-make-mistakes-courts-cant-undo-experts-warn/

***

この記事に書かれているような問題を解消するためには,EUのAI法及びGDPRが採用しているような方策,すなわち,自動判定の際における「人間による関与」を要件(=必要条件)とするという方策を採用するのが賢明だと考える。

このような要件を導入しても,実際には何も変わらないじゃないかという批判や,現実的ではないというような批判は常にある。特に,裁判制度の本質を全く理解できない人や無教養な人ではそのような意見が多い。

当然のことながら,大多数の裁判官はエンジニアではないしAIの研究者でもないから,技術論を争点にしてしまうと,民事訴訟において仕掛けた方(原告)が常に負けということにもなりかねない。

だからこそ,関連法制の設計においては,普通の裁判官が採用しやすい判断基準を設けることが必要になる。

EUのAI法やGDPRは,この点で非常に優れている。つまり,自動判定がどのような技術でどのように処理されたのかを問題にするのではなく,自動判定に「人間による関与」があったかどうかを判断基準にしているので,人間による関与がなければ,そのことだけで「違法な処理である」と判断できることになる。これならば,普通の裁判官でもできることだ。

いろいろとみていると,これらの点に関してあからさまに荒唐無稽なことが書いてある関連文書が多数存在するが,たぶん,そのような基礎的なことに関して全く無知または無能な者(=本来であればそのような仕事をしてはならない者),または,特定の関連企業のエージェントのような者(=公平性・客観性のない者)が執筆したのでそういうことになっているのだろうと思う。

 

 

 

 

| | コメント (0)

2024年8月30日 (金曜日)

AIは教育現場を良い方向に向かわせるか?

下記の記事が出ている。

 How AI could soon be marking your child’s homework
 The Times UK: August 28, 2024
 https://www.thetimes.com/uk/education/article/how-ai-could-soon-be-marking-your-childs-homework-k9r7878c7

***

私は教師の大量解雇+盲目的暗記型の馬鹿児童大量生産(=世界の破滅)という方向に向かうことになると予測している。

教師が教えていることや教科書に書いていることのほとんどが間違いだということを小学生レベルで理解できるようになっていることが理想だ。

生成AIは,児童がそのような優れた能力をもつ人間になる機会を封殺または禁圧し,「新たな中世」への扉を開く。

 

 

 

| | コメント (0)

2024年8月 8日 (木曜日)

EU:Second Report on the application of the General Data Protection Regulation

下記のとおり公表されている。

 Second Report on the application of the General Data Protection Regulation
 COM(2024) 357 final
 https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=COM%3A2024%3A357%3AFIN

 

| | コメント (0)

2024年7月 3日 (水曜日)

児童の権利を侵害するAIシステム開発者の巧妙な手口

下記の記事が出ている。

 AI trains on kids’ photos even when parents use strict privacy settings
 ars technica: July 3, 2024
 https://arstechnica.com/tech-policy/2024/07/ai-trains-on-kids-photos-even-when-parents-use-strict-privacy-settings/

このような手口による場合を含め,児童の権利を侵害することは,現在制定手続が進められているEUのAI法案の最新版の正文案の中でも違法行為であると明記されている。GDPRにも違反している。

| | コメント (0)

2024年6月17日 (月曜日)

ZkTeco

下記の記事が出ている。

 Kaspersky Finds 24 Flaws in Chinese Biometric Hardware Provider
 infosecurity: 13 June, 2024
 https://www.infosecurity-magazine.com/news/kaspersky-flaws-chinese-biometric/

「きしみ」かもしれない。

 

| | コメント (0)

生成AIには児童の権利の保護という側面においても深刻な問題がある

下記の記事が出ている。

 AI trained on photos from kids’ entire childhood without their consent
 ars technica: June 11, 2024
 https://arstechnica.com/tech-policy/2024/06/ai-trained-on-photos-from-kids-entire-childhood-without-their-consent/

 

[追記:2024年7月31日]

関連記事を追加する。

 Photos of your children are being used to train AI without your permission, and there’s nothing you can do about it
 The Hill: July 27, 2024
 https://thehill.com/opinion/technology/4794388-ai-training-children-photos-privacy-chevron/

 

| | コメント (0)

より以前の記事一覧