AI welfare
下記の記事が出ている。
Is “AI welfare” the new frontier in ethics?
ars technica: 2024年11月12日
https://arstechnica.com/ai/2024/11/anthropic-hires-its-first-ai-welfare-researcher/
下記の記事が出ている。
Is “AI welfare” the new frontier in ethics?
ars technica: 2024年11月12日
https://arstechnica.com/ai/2024/11/anthropic-hires-its-first-ai-welfare-researcher/
下記の記事が出ている。
How AI could soon be marking your child’s homework
The Times UK: August 28, 2024
https://www.thetimes.com/uk/education/article/how-ai-could-soon-be-marking-your-childs-homework-k9r7878c7
***
私は教師の大量解雇+盲目的暗記型の馬鹿児童大量生産(=世界の破滅)という方向に向かうことになると予測している。
教師が教えていることや教科書に書いていることのほとんどが間違いだということを小学生レベルで理解できるようになっていることが理想だ。
生成AIは,児童がそのような優れた能力をもつ人間になる機会を封殺または禁圧し,「新たな中世」への扉を開く。
下記の記事が出ている。
Court ordered penalties for 15 teens who created naked AI images of classmates
ars technica: 11 July, 2024
https://arstechnica.com/tech-policy/2024/07/court-ordered-penalties-for-15-teens-who-created-naked-ai-images-of-classmates/
生成AIを使用して自動生成した答案や回答文などを提出する例が世界各国で報告されている。国によっては犯罪行為として捜査の対象となった例もあるようなのだが,例えば,大学におけるオンラインによるレポート提出等においてそのような行為が実行された場合,明らかに業務妨害罪を構成するので,悪質な事例に関しては直ちに刑事処罰を検討すべきだろう。
それはさておき,AIに対抗するための最善の方法は,自然人が同じようなアウトプットを提出した場合でも0点とする方法を考えることだ。
例えば,文脈理解や深層理解をすることなく,あるいは,前提条件である大量の資料や講義案を全部読んで理解することなく,講義を全く受けなくても誰でも書ける一般論を書いたレポートや答案が提出された場合,提出された文それ自体としては正しい内容が書かれていたとしても,(AIによる場合でも自然人の脳による場合でも)一律に0点とするという方法がある。
生成AIは,簡単な文脈理解ならできることがあり,特に,一定の既知のパターンが存在するときには処理可能なことがある。
だが,生成AIの特性を熟考した上で,自動処理によっては絶対に特定された解析結果を出力できないようにする特別の条件設定は可能であり,そのような条件設定を常に考案し続けている。これは,生成AIが全く機能しようがないパターンの発見の努力の蓄積にほかならない。
このような方法を現実に実施している。
このような出題を実現するためには,(不意打ちを避けるため)「当該講義内容を完全に理解し,その理解を踏まえて視点を絞った答案またはレポートを提出すること」を求めていることを事前に明示することが大事だ。
ただし,そのような条件が明示されているということを受講生が読み取って理解できるだけの日本語処理能力をもっているかどうかは別なのだが,一般的な法学部学生の能力として要求される日本語処理能力のレベルを超えているとは考えられない。
加えて,一般に,採点者自身も非常に優秀であり,かつ,精神的・肉体的に相当にタフであることが求められる。
以上のように考え,AIを使用した場合には逆に不利な採点となるような出題文を研究・作成し続けている。
私自身は凡人の一員であり優秀者ではないので,努力の積み重ねによって問題を克服している。
実際に実施し続けてみて,受講生がそのような意図の出題になっていることに気づいているかどうかは分からない。
なぜなら,それ自体としては優秀な答案のように見えるけれども,誰でも書ける一般論しか書いておらず,講義内容を踏まえているとは評価できない答案が提出されるからだ。
予定どおり,講義を受けていなくても誰でも書けるような一般的・概括的な内容だけのものは,生成AIによるものであれ自然人の脳によるものであれ関係なく,一律に0点として成績評価している。
知的能力としては非常に優秀な学生として評価可能な学生であっても,講義内容を踏まえた文を作成できなければ0点と評価する。生成AIからの出力をベースにし,それに手を加えて作成されたものと明らかに推定される文もあり,そのようなものを提出した学生については,単に0点として成績評価するだけではなく,学則上の処分の要否を検討している。
知能テストではなく,(暗記すべき事柄を暗記しているかどうかを点検するための)検定試験でもなく,(個々の受講生が学習した内容を「***を学んだ」方式で復唱させるような)初等教育段階の人を馬鹿にしたようなテスト(または幼稚な「おさらいごっこ」)でもなく,(大学法学部としての講義内容の)理解度テストなので,そのように採点するのは当然のことだ。
半期で1回約2万5000字×実質12回(合計約30万字相当)の講義案の内容を常に頭の中に入れているので,そのような採点を現実に実施することができる。
講義案は,完全にオリジナルのものであり,毎年,必要な箇所を改訂している。
その結果,今年度は大量留年としなければならないかもしれないので,(採点結果を調整すべきかどうかを含め)目下検討中・・・
下記の記事が出ている。
Chatbots fool examiners — and outperform real-life students
The Times: June 26, 2024
https://www.thetimes.com/uk/education/article/chatbots-fool-examiners-and-outperform-real-life-students-dqvx09rj5
既に闘いが始まっている。
ただし,闘いが発生し得るのは,解答のある出題の場合だけだ。そうでない場合,簡単に見破る方法はある。ただし,出題者(=採点者)が相当に優秀かつタフでないとその方法は使えない。
問題になっている事例があるようなのだが,当然のことながら,事案により,威力業務妨害罪または偽計業務妨害罪が成立する。
所管する警察当局は,どんどん検挙すべきだ。
なお,大学のレポートの提出等においても,生成AIを悪用した事例が問題とされることがある。
そのような事案類型に関してもまた,公正な成績評価業務を妨げていることが明々白々なので,原則として,偽計業務妨害罪が成立する。当該学生は,1年~2年程度服役して反省すべきだろうと思う。
***
当該虚偽内容のコンテンツを自動生成した生成AIシステムまたは生成AIサービスの運営者の法的責任も問題となり得る。
証拠によって故意が認定可能な事例では,共同正犯または幇助犯の成立を認めることが可能だろう。
証拠によって故意が認められない事例でも,実質的な被害を受けた者に対する(不法行為を原因とする)損害賠償責任を負うことはあり得る。
このような法的責任を免れるためには,悪用の恐れがあるコンテントの自動生成を自動的に検出し,そのサービスの提供を停止するような自動的な仕組みを導入する必要がある。「人工知能だ!」と標榜する以上,そのような自動停止機能を完全に実装でるはずであり,それを実装できないときは,「知能」ではないものを「知能」の一種としてサービス提供し,対価の支払いを受ける詐欺商売として,関係当局から業務停止等の措置命令を受けるべきだ。「知能」である以上,違法行為に悪用されるおそれがあるときは,自動的に察知し,反対動機を自動的に形成し,機能停止となるような能力をもっていなければならない。そうでないものは,そもそも「知性」も「理性」も「倫理観」も全くないサービス提供だということになる。
無論,現実にはそのような法の運用は実行されていないが,それは,関係当局の現時点における担当者の無知・無能に起因するものなので,時間の経過と経験値の蓄積に伴い,そのような問題がいずれ解消され,適正に警察権限及びそれ以外の行政権限が発動されるときがくるだろうと予測している。
下記の記事が出ている。
ChatGPT shows better moral judgment than a college undergrad
ars technica: May 2, 2024
https://arstechnica.com/ai/2024/05/chatgpt-shows-better-moral-judgement-than-a-college-undergrad/
下記の記事が出ている。
Privacy And Security Issues Of Using AI For Academic Purposes
Forbes: March 29, 2024
https://www.forbes.com/sites/davidbalaban/2024/03/29/privacy-and-security-issues-of-using-ai-for-academic-purposes/
下記の記事が出ている。
In the age of AI, we need a system of career navigation for all
The Hill: January 11, 2024
https://thehill.com/opinion/4404065-in-the-age-of-ai-we-need-a-system-of-career-navigation-for-all/
既に何度も書いていることなのだが,画一化・定式化された教育内容は,AIによって簡単に学習される可能性が高いので,結局,教育が効を奏することはない(=教育と訓練は解決策にならない)という結論になる。
このままでは,人間でなければできないような肉体労働を除き,大半の事務職が消滅することになる。
最悪のシナリオとしては,先鋭化した失業者による破壊と暴動が荒れ狂う世界がやってくることになるだろう。
***
一般に,特別の例外である非常に優れた教員の場合を除き,一般的な教員の知的能力は(創造性及び個別対応可能性という点では)一般人と大きく変わることはないので,画一化・定式化された教育内容を提供する能力しかもっていない。
しかも,義務教育課程においては,独創的な教育を実施することが禁止されており,また,全世界における一般的な教育方法論においても,独創性を殺す方向にのみ様式化され続けている。
ヴァイオリンの教育を例にあげると,アウアー(Leopold Auer)のような極めて優れた教育者は,ほとんどいない。今後出現する可能性も著しく低い。
下記の記事が出ている。
Google launches Gemini — the AI system ‘better than ChatGPT’
The Times UK: December 06 2023
https://www.thetimes.co.uk/article/google-gemini-ai-system-better-chatgpt-2pkpnnkm6
この記事では,子供の学校の宿題が無意味化する時代が来ると予測している。
出題と回答との関係が1対1で確定しているような単純な暗記型の問題を宿題とすれば,そうなり得ると言えるだろう。
初等教育の崩壊が更に進むかもしれない。
教育とは関係がないかもしれないが,一般的なキュレーションサイトでやっていることの多くは,このようなタイプのAIアプリによって代替される可能性がある。そのことは2面において問題を明確化させることとなり得る。
1つは,人間が行っているビジネスモデルとしてのキュレーションが既に時代遅れになってしまっているかもしれないという問題,そして,もう1つは,人間が行っているキュレーションに必然的に伴う著作権侵害(公正な引用の範囲を大幅に逸脱した大量的な複製権または公衆送信可能化権の侵害)が更に大量に発生し,世界中の知的財産制度が全面的に崩壊してしまうかもしれないという問題だ。
比較的短期間のうちに顕在化する問題だと理解している。
最近のコメント