米国 人工知能に関する超党派下院小委員会報告書 米国が責任あるAIイノベーションを継続的に世界に提供するための指針、将来を見据えた提言、政策提言 (2024.12.17)
こんにちは、丸山満彦です。
2024年の宿題シリーズはまだまだ続く...(^^;;
米国の下院の超党派のAI特別委員会が、AIの発展のために議会が何ができるかという報告書を公表していますね...
15の領域を検討し、課題と提言をまとめています...
また、附属書IIIには、これから検討しないといけない領域が記載されていますね...
そして、欧州ではAI法が制定されたこため、AIの定義が一意になりましたが、米国では、法律ごとにぶれが存在するので、これからまとめていかないといけないですよねと...(附属書VI)
273ページにも及ぶ報告書です...
検討領域は...
Government Use | 政府による利用 |
Federal Preemption of State Law | 州法に対する連邦法の優先 |
Data Privacy | データ・プライバシー |
National Security | 国家安全保障 |
Research, Development, and Standards | 研究、開発、標準 |
Civil Rights and Civil Liberties | 市民権および市民の自由 |
Education and Workforce | 教育および労働力 |
Intellectual Property | 知的財産 |
Content Authenticity | コンテンツの真正性 |
Open and Closed Systems | オープンシステムおよびクローズドシステム |
Energy Usage and Data Centers | エネルギー利用とデータセンター |
Small Business | 中小企業 |
Agriculture | 農業 |
Healthcare | ヘルスケア |
Financial Services | 金融サービス |
今後の検討領域(附属書III)
1. Global Development and International Cooperation | 1. グローバル開発と国際協力 |
2. Export Control Policy | 2. 輸出管理ポリシー |
3. Manufacturing, Supply Chain, and Industrial AI | 3. 製造、サプライチェーン、産業AI |
4. Antitrust and Competition Policy | 4. 独占禁止と競争政策 |
5. Critical Infrastructure and Security | 5. 重要インフラとセキュリティ |
6. Environmental Impact of AI | 6. AIの環境影響 |
7. Law Enforcement | 7. 法執行機関 |
8. The Intelligence Community | 8. インテリジェンス・コミュニティ |
9. Transportation | 9. 交通 |
10.Election Integrity | 10. 選挙の完全性 |
11.State and Local Governments | 11. 州および地方自治体 |
12.Biotechnology | 12. バイオテクノロジー |
13.Law and the Courts | 13. 法律と裁判所 |
14.AI Adoption Across Sectors, including Entertainment, and Business to Business. | 14. エンターテインメント、B to Bを含む各分野におけるAI導入。 |
15.Other Industries | 15. その他の産業 |
日本がAIに対する政策を考える際にも参考になりますよね...
日本は独自に検討するのではなく、米国と共同検討というのもありかもですね...
連邦議会 下院 科学・宇宙・技術委員会...
● House of Representative - Committee on Science, Space and Technologies
・2024.12.17 House Bipartisan Task Force on Artificial Intelligence Delivers Report
House Bipartisan Task Force on Artificial Intelligence Delivers Report | 人工知能に関する下院超党派タスクフォースが報告書を提出 |
(Washington, DC) - Today, Speaker Mike Johnson and Democratic Leader Hakeem Jeffries received the comprehensive report and key findings produced by the bipartisan House Task Force on Artificial Intelligence. Developed in consultation with committees of jurisdiction, the report includes guiding principles and forward-looking recommendations that may be appropriate to advance America’s leadership in AI innovation responsibly. | (ワシントンD.C.) - 本日、マイク・ジョンソン下院議長とヘキーム・ジェフリーズ民主党院内総務は、人工知能に関する下院超党派タスクフォースが作成した包括的な報告書と主な調査結果を受け取った。管轄委員会と協議して作成されたこの報告書には、AIイノベーションにおける米国のリーダーシップを責任を持って推進するために適切な指針と先見性のある提言が含まれている。 |
“Because advancements in artificial intelligence have the potential to rapidly transform our economy and national security, Leader Jeffries and I established the Bipartisan Task Force on Artificial Intelligence to ensure America continues leading in this strategic arena. Developing a bipartisan vision for AI adoption, innovation, and governance is no easy task, but a necessary one as we look to the future of AI and ensure Americans see real benefits from this technology,” said Speaker Mike Johnson. “Thanks to the leadership of the Task Force Co-Chairs Jay Obernolte and Ted Lieu and the hard work of all the Members involved, Congress has a better understanding of how to leverage the promises and navigate the complexities of this transformative technology.” | 「人工知能の進歩は、経済や国家安全保障を急速に変える可能性があるため、ジェフリーズ議員と私は、アメリカがこの戦略的分野で引き続き主導権を握り続けることを確実にするため、超党派の人工知能タスクフォースを設立した。AIの採用、イノベーション、ガバナンスに関する超党派のビジョンを策定することは容易なことではないが、AIの未来を見据え、アメリカ国民がこのテクノロジーから真の利益を得られるようにするためには必要なことである」とマイク・ジョンソン議長は述べた。「タスクフォース共同議長のジェイ・オバーノルテ氏とテッド・リュー氏によるリーダーシップと、関係するすべての議員の努力のおかげで、議会は、この変革的なテクノロジーの複雑性を理解し、その可能性を最大限に活用する方法について、より深い理解を得ることができた」 |
“The development and safe adoption of artificial intelligence holds great promise to make a positive difference in the lives of the American people, and Congress has an important role in bringing these benefits to fruition. At the same time, we must ensure that appropriate guardrails are in place to prevent bad actors from exploiting this transformative technology,” said Democratic Leader Hakeem Jeffries. “The Members of the Bipartisan Task Force on Artificial Intelligence worked hard over the past year developing a report that is serious, sober and substantive in nature. I’m encouraged by the completion of the report and hopeful it will be instructive for enlightened legislative action moving forward. I’m thankful for the partnership of Speaker Johnson, the leadership of Reps. Ted Lieu and Jay Obernolte and the entire Task Force for coming together to produce a bipartisan path forward.” | 「人工知能の開発と安全な導入は、米国国民の生活にポジティブな変化をもたらす大きな可能性を秘めており、議会にはこれらの利益を実現させる上で重要な役割がある。同時に、この変革的なテクノロジーを悪用する者たちを阻止するための適切なガードレールを設置しなければならない」と、民主党院内総務のヘキーム・ジェフリーズ氏は述べた。「人工知能に関する超党派タスクフォースのメンバーは、この1年、真剣かつ冷静に、本質的な内容の報告書を作成するために努力を重ねてきた。この報告書の完成に勇気づけられ、今後、賢明な立法措置を講じる上で参考になることを期待している。ジョンソン議長、テッド・リュー下院議員、ジェイ・オバーノルテ下院議員のリーダーシップ、そしてタスクフォース全体が協力し、超党派の進むべき道筋を示してくれたことに感謝している」 |
“It has been my honor to lead the House AI Task Force in producing this detailed, forward-thinking, and bipartisan report. It is our hope that this report will inform the Congress and the American people on the advantages, complexities, and risks of artificial intelligence,” said Chairman Jay Obernolte (R-Ca.). “The report details a roadmap for Congress to follow to both safeguard consumers and foster continued U.S. investment and innovation in AI. I’d like to thank Co-Chair Lieu, Speaker Johnson, Leader Jeffries, and all of our AI Task Force members for their hard work this year. I am confident that this report will be an essential tool for crafting AI policy that protects Americans, spurs innovation, and secures American leadership in this revolutionary technology.” | 「この詳細かつ先見性のある超党派の報告書を作成するにあたり、下院AIタスクフォースを率いることができたことは私の名誉である。この報告書が、人工知能の利点、複雑性、リスクについて、連邦議会および米国国民に情報を提供することを願っている」と、ジェイ・オバーノルテ下院議員(共和党、カリフォルニア州選出)は述べた。「この報告書は、消費者を守り、米国のAIへの継続的な投資とイノベーションを促進するために議会が従うべきロードマップを詳細に説明しています。共同議長のLieu氏、議長のJohnson氏、院内総務のJeffries氏、そしてAIタスクフォースのメンバー全員に、今年1年間の努力に感謝したいと思います。この報告書が、米国国民を保護し、イノベーションを促進し、この革命的な技術における米国のリーダーシップを確保するAI政策の策定に不可欠なツールとなることを確信しています。」 |
“The bipartisan House AI Task Force report provides a foundation both to ensure that America leads in AI innovation and to ensure that we have appropriate guardrails to protect Americans. This substantive report is the result of conversations with experts, extensive research, and analysis among Task Force members and will hopefully serve as a starting point to tackle pressing issues involving artificial intelligence. Collaborating across party lines to find consensus is not easy, and that is especially true for something as far-reaching and complex as AI,” said Co-Chair Ted Lieu (D-Ca.). “Despite the wide spectrum of political views of Members on our Task Force, we created a report that reflects our shared vision for a future where we protect people and champion American innovation. We have made our best efforts based on the information we have, but with the rapid pace of change in both AI software and hardware, we are fully aware that we don’t know what we don’t know. This initial report is only the first step. I am grateful to work alongside my friend, Jay Obernolte, on this important effort and for the trust that Speaker Johnson and Leader Jeffries put in our Task Force. I also want to recognize all the tremendous staff work that went into running the Task Force and creating our report.” | 「超党派の連邦議会人工知能タスクフォースによるこの報告書は、アメリカがAIイノベーションをリードし、アメリカ国民を防御するための適切なガードレールを確保するための基盤となる。この充実した報告書は、専門家との対話、広範な調査、タスクフォースメンバーによる分析の結果であり、人工知能に関する喫緊の課題に取り組む出発点となることを期待している。党派を超えて協力し、コンセンサスを見出すのは容易なことではなく、AIのような広範囲かつ複雑な問題については特にその傾向が強い。」と、共同議長のテッド・リュー下院議員(民主党、カリフォルニア州選出)は述べた。「私たちのタスクフォースのメンバーの政治的見解は多岐にわたるが、私たちは、人々を防御し、アメリカのイノベーションを推進する未来に向けた私たちの共通のビジョンを反映した報告書を作成した。我々は、入手可能な情報に基づいて最善を尽くしたが、AIのソフトウェアとハードウェアの両方で変化のペースが速いため、我々は「我々が知らないこと」を我々が知らないことを十分に認識している。この最初の報告書は、あくまで第一歩である。私は、この重要な取り組みにおいて友人であるジェイ・オバーノルテ氏と共に活動できたことに感謝している。また、ジョンソン議長とジェフリーズ院内総務が我々のタスクフォースに信頼を置いてくれたことに感謝している。また、タスクフォースの運営と報告書の作成に尽力したスタッフの多大な貢献にも感謝したい。 |
Read the full report and key findings here. | 報告書全文と主な調査結果はこちら。 |
Background | 背景 |
In February, Speaker Mike Johnson and Democratic Leader Hakeem Jeffries announced the establishment of a bipartisan Task Force on Artificial Intelligence (AI) to explore how Congress can ensure America continues to lead the world in AI innovation while considering guardrails that may be appropriate to safeguard the nation against current and emerging threats. | 2月、マイク・ジョンソン下院議長とヘキーム・ジェフリーズ民主党院内総務は、米国がAIイノベーションで世界をリードし続けるために議会がどのような役割を果たせるかを検討する超党派の「人工知能(AI)に関するタスクフォース」の設立を発表した。同時に、現在および将来の脅威から国家を保護するために適切なガードレールを検討することも目的としている。 |
Speaker Johnson and Leader Jeffries each appointed twelve members to the Task Force that represent key committees of jurisdiction and has been jointly led by Chairman Jay Obernolte (R-Ca.) and Co-Chair Ted Lieu (D-Ca.). | ジョンソン議長とジェフリーズ院内総務は、それぞれ管轄の主要委員会を代表する12名のメンバーをタスクフォースに任命し、ジェイ・オバーノルテ下院議員(共和党、カリフォルニア州選出)とテッド・リュー下院議員(民主党、カリフォルニア州選出)が共同でタスクフォースを主導している。 |
民主党のジェフリーズ議員のウェブページ
・The House Task Force on Artificial Intelligence Final Report
The House Task Force on Artificial Intelligence Final Report | 人工知能に関する下院特別委員会の最終報告書 |
The Speaker’s AI Task Force was chartered to explore how Congress can ensure America continues to lead the world in AI innovation while considering guardrails that may be appropriate to safeguard the nation against current and emerging threats. | 議長のAI特別委員会は、現在および将来の脅威から国家を保護するために適切なガードレールを検討しながら、米国がAIイノベーションで世界をリードし続けるために議会がどのような役割を果たせるかを調査することを目的として設立された。 |
Speaker Johnson and Leader Jeffries each appointed twelve members to the Task Force that represent key committees of jurisdiction and was jointly led by Chairman Jay Obernolte (CA-23) and Co-Chair Ted Lieu (CA-36). The Task Force was tasked specifically to produce a comprehensive report including guiding principles, forward-looking recommendations and bipartisan policy proposals developed in consultation with committees of jurisdiction. | ジョンソン下院議長とジェフリーズ院内総務は、それぞれ管轄の主要委員会の代表者12名をタスクフォースに任命し、ジェイ・オバーノルテ下院議員(カリフォルニア州第23区)とテッド・リュー下院議員(カリフォルニア州第36区)が共同でタスクフォースを率いた。タスクフォースは、管轄委員会と協議して作成した指針、将来を見据えた提言、超党派の政策提案を含む包括的な報告書の作成を特に任務としていた。 |
The Task Force final report offers key principles, findings, and proposals on AI, examining impacts on education, health care, and intellectual property, among several other major policy areas. The report is the product of nearly 10 months of work by the bipartisan Task Force, which included consulting with a broad swath of government, industry, and civil society officials in more than a dozen hearings and roundtable discussions. | タスクフォースの最終報告書では、AIに関する主要原則、調査結果、提案が提示されており、教育、ヘルスケア、知的財産権など、いくつかの主要政策分野における影響が検証されている。この報告書は、超党派のタスクフォースが10か月近くにわたって取り組んだ成果であり、12回以上の公聴会や円卓会議において、政府、産業界、市民社会の広範な関係者と協議を行った。 |
・[PDF]
目次的...
Letter to Speaker Johnson and Democratic Leader Jeffries | ジョンソン下院議長およびジェフリーズ民主党院内総務宛て書簡 |
About the Bipartisan House AI Task Force in the 118th Congress | 第118議会における超党派下院人工知能タスクフォースについて |
Leading AI Progress: Policy Insights and a U.S. Vision for AI Adoption, Responsible Innovation, and Governance | AIの進歩をリードする:AIの導入、責任あるイノベーション、ガバナンスに関する政策洞察と米国のビジョン |
Philosophy and Principles | 哲学と原則 |
Overview of Findings and Recommendations | 調査結果と提言の概要 |
Government Use | 政府による利用 |
Federal Preemption of State Law | 州法に対する連邦法の優先 |
Data Privacy | データ・プライバシー |
National Security | 国家安全保障 |
Research, Development, and Standards | 研究、開発、標準 |
Civil Rights and Civil Liberties | 市民権および市民の自由 |
Education and Workforce | 教育および労働力 |
Intellectual Property | 知的財産 |
Content Authenticity | コンテンツの真正性 |
Open and Closed Systems | オープンシステムおよびクローズドシステム |
Energy Usage and Data Centers | エネルギー利用とデータセンター |
Small Business | 中小企業 |
Agriculture | 農業 |
Healthcare | ヘルスケア |
Financial Services | 金融サービス |
Appendix I: AI Task Force Members | 附属書 I:AI タスクフォースのメンバー |
Appendix II: AI Task Force Events | 附属書 II:AI タスクフォースのイベント |
Appendix III: Key Government Policies | 附属書 III:主要な政府政策 |
Appendix IV: Areas for Future Exploration | 附属書 IV:今後の検討分野 |
Appendix V: Overview of AI Technology | 附属書 V:AI テクノロジーの概要 |
Appendix VI: Definitional Challenges of AI | 附属書 VI:AI の定義上の課題 |
Acknowledgments | 謝辞 |
ジョンソン議長およびジェフリーズ民主党院内総務宛て書簡
Letter to Speaker Johnson and Democratic Leader Jeffries | ジョンソン議長およびジェフリーズ民主党院内総務宛て書簡 |
Dear Speaker Johnson and Leader Jeffries: | ジョンソン議長およびジェフリーズ院内総務: |
We, the Co-Chairs of the Bipartisan Artificial Intelligence Task Force, submit to you our key findings in this report. | 超党派人工知能タスクフォースの共同議長を務める私たちは、本報告書における主な調査結果をここに提出する。 |
Although artificial intelligence (AI) is not a new concept, breathtaking technological advancements in the last few years have made AI the focus of numerous policy discussions. AI has tremendous potential to transform society and our economy for the better and address complex national challenges. From optimizing manufacturing to developing cures for grave illnesses, AI can greatly boost productivity, enabling us to achieve our objectives more quickly and cost-effectively. Nevertheless, we also recognize that AI can be misused and lead to various types of harm. | 人工知能(AI)は新しい概念ではないが、ここ数年の目覚ましい技術的進歩により、AIは数多くの政策議論の焦点となっている。AIは、社会や経済をより良いものに変え、複雑な国家的な課題に対処する大きな可能性を秘めている。製造事業者の最適化から深刻な病気の治療法の開発まで、AIは生産性を大幅に向上させ、より迅速かつ費用対効果の高い方法で目標を達成することを可能にする。しかし、AIが誤用され、さまざまな種類の被害につながる可能性があることも認識している。 |
This report highlights America's leadership in its approach to responsible AI innovation while considering guardrails that may be appropriate to safeguard the nation against current and emerging threats. You charged twenty-four members, twelve Republicans and twelve Democrats, with developing a U.S. vision for AI adoption, innovation, and governance. The AI Task Force gathered information on salient AI issues from domain experts in industry, government, civil society, and academia to provide 66 key findings 85 recommendations. In summary, this report encapsulates a targeted approach that balances the need to promote vibrant AI innovation while safeguarding Americans from potential harms as we enter an era of widespread adoption of AI. | 本報告書では、責任あるAIイノベーションへのアプローチにおける米国のリーダーシップを強調しながら、現在および将来の脅威から国家を保護するために適切なガードレールを検討している。貴殿は、共和党と民主党から12名ずつ、計24名のメンバーを任命し、AIの導入、イノベーション、ガバナンスに関する米国のビジョン策定を委ねた。AIタスクフォースは、産業界、政府、市民社会、学術界の各分野の専門家からAIに関する重要な問題に関する情報を収集し、66の主要な調査結果と85の提言をまとめた。要約すると、この報告書は、AIの普及が進む時代を迎えるにあたり、活気あるAIイノベーションを推進する必要性と、アメリカ国民を潜在的な被害から守る必要性のバランスを取ることを目的としたアプローチを要約したものである。 |
We thank you for establishing the AI Task Force and are eager for this report to inform future congressional policymaking. | AIタスクフォースを設立していただき感謝するとともに、この報告書が今後の議会での政策立案に役立つことを期待している。 |
第118議会における超党派下院AIタスクフォースについて
About the Bipartisan House AI Task Force in the 118th Congress | 第118議会における超党派下院AIタスクフォースについて |
The bipartisan AI Task Force was created by Speaker Johnson and Democratic Leader Jeffries on February 20, 2024. The AI Task Force is led by co-chairs Jay Obernolte (RCA) and Ted Lieu (D-CA) and comprises twenty-four members, twelve Republicans and twelve Democrats. The AI Task Force members are drawn from twenty committees to ensure comprehensive jurisdictional responsibilities over the numerous AI issues that we addressed and to benefit from a range of different insights and perspectives. | 超党派AIタスクフォースは、ジョンソン議長とジェフリーズ民主党院内総務により2024年2月20日に設立された。AIタスクフォースは、ジェイ・オバーノルテ(共和党、RCA)とテッド・リュー(民主党、CA-D)の両共同議長が率い、共和党議員12名、民主党議員12名の計24名で構成されている。AIタスクフォースのメンバーは、20の委員会から選出されており、私たちが取り組む数多くのAI問題について包括的な管轄責任を確保し、さまざまな異なる洞察や視点から利益を得ることを目的としている。 |
A full list of Task Force members and the committees they represent is included in Appendix I. | タスクフォースのメンバーと、彼らが代表する委員会の全リストは、附属書Iに記載されている。 |
Throughout 2024, the AI Task Force convened to investigate dozens of issues at the heart of how AI intersects with numerous policy areas. The AI Task Force held multiple hearings and numerous roundtables and engaged with over one hundred experts, including business leaders, government officials, technical experts, academics, legal scholars, and other domain specialists. These experts generously offered their insights, suggestions, and comments spanning a range of viewpoints. | 2024年を通して、AIタスクフォースは、AIが多数の政策分野と交差する核心となる数十の問題を調査するために招集された。AIタスクフォースは、複数の公聴会と多数の円卓会議を開催し、ビジネスリーダー、政府関係者、技術専門家、学者、法律学者、その他の専門分野の専門家など、100人以上の専門家と協議した。これらの専門家は、幅広い視点にわたる洞察、提案、コメントを惜しみなく提供した。 |
This approach allowed each issue to be comprehensively explored from various perspectives. A multifaceted approach to policy analysis will better prepare the decisionmakers who address the complex AI challenges that confront our nation and will continue to affect public policy. | このアプローチにより、各問題をさまざまな視点から総合的に検討することが可能となった。政策分析に対する多面的なアプローチは、わが国が直面し、今後も公共政策に影響を与え続ける複雑なAIの課題に取り組む意思決定者をより良く準備させることになるだろう。 |
A full list of experts and a list of the events the Task Force convened is included in Appendix II. | 専門家一覧およびタスクフォースが開催したイベントの一覧は、附属書IIに記載されている。 |
AIの進歩をリードする:AI導入、責任あるイノベーション、ガバナンスに関する政策洞察と米国のビジョン
Leading AI Progress: Policy Insights and a U.S. Vision for AI Adoption, Responsible Innovation, and Governance | AIの進歩をリードする:AI導入、責任あるイノベーション、ガバナンスに関する政策洞察と米国のビジョン |
The United States is the global leader in Artificial Intelligence, a transformative technology that also comes with risks that must be addressed responsibly. To ensure the economic and national security benefits accrue in the United States and the technology is developed and deployed responsibly here and across the world, the United States must take active steps to safeguard our current leadership position. Developed and deployed responsibly, AI has the potential to help improve Americans’ quality of life, health, jobs, security, and economic prosperity for decades to come. | 米国は、人工知能(AI)の分野における世界のリーダーである。AIは、変革をもたらす技術であると同時に、責任を持って対処すべきリスクも伴う。米国が経済的および国家的な安全保障上の利益を確実に享受し、この技術が米国および世界中で責任を持って開発・展開されるようにするためには、米国は現在のリーダーとしての立場を保護するための積極的な措置を取らなければならない。責任を持って開発・展開されたAIは、今後数十年にわたって米国人の生活の質、健康、雇用、安全、経済的繁栄の改善に役立つ可能性がある。 |
The United States leads the world in AI research, the number of AI companies, private sector AI investment, and industry adoption of AI. This overwhelming national advantage derives from two of our longstanding strengths: we have cultivated a thriving innovation ecosystem and a flexible sectoral regulatory framework. If maintained, these strengths will help our country remain the world’s undisputed leader in the responsible design, development, and deployment of AI. | 米国は、AI研究、AI企業数、民間部門のAI投資、AIの産業導入において世界をリードしている。この圧倒的な国としての優位性は、米国の長年にわたる強みである2つの要素、すなわち、活気のあるイノベーションのエコシステムと柔軟な部門別規制枠組みを培ってきたことによるものである。これらの強みを維持できれば、AIの責任ある設計、開発、展開において、米国が世界で揺るぎないリーダーであり続けることができるだろう。 |
The collective experiences and insights of the bipartisan House AI Task Force are encapsulated in this report. During the second session of the 118th Congress, the Task Force engaged with over one hundred experts on dozens of salient AI issues. We consulted with business leaders, government officials, technical experts, academics, and legal scholars, all of whom offered their insights, suggestions, and comments on the varied and complex AI challenges confronting our nation. | 超党派の連邦議会人工知能タスクフォースの経験と洞察の集大成が、この報告書にまとめられている。第118議会第2会期中に、タスクフォースは100人以上の専門家と、多数の顕著なAI問題について協議した。ビジネスリーダー、政府高官、技術専門家、学者、法律学者らと協議し、米国が直面する多様かつ複雑なAIの課題について、彼らの洞察、提案、意見を聞いた。 |
This report articulates guiding principles, 66 key findings, and 89 recommendations, organized into 15 chapters. It is intended to serve as a blueprint for future actions that Congress can take to address advances in AI technologies. The Task Force members feel strongly that Congress must develop and maintain a thoughtful long-term vision for AI in our society. This vision should serve as a guide to the many priorities, legislative initiatives, and national strategies we undertake in the years ahead. | 本報告書では、15章にわたって、指針となる原則、66の主要な調査結果、89の提言を明確に述べている。これは、AI技術の進歩に対応するために連邦議会がとることのできる今後の行動の青写真となることを目的としている。タスクフォースのメンバーは、連邦議会が社会におけるAIについて、熟慮された長期的なビジョンを策定し、維持しなければならないと強く感じている。このビジョンは、今後数年間で着手する多くの優先事項、立法イニシアティブ、国家戦略の指針となるべきである。 |
In considering new policies, Congress should adopt an agile approach that allows us to respond appropriately and in a targeted, achievable manner that benefits from all available evidence and insights. Supporting this agile paradigm requires continual learning and adaptation. Congress should regularly evaluate the effectiveness of its policies and update them as AI technologies and their impacts evolve. If we follow this approach and take strategic action while encouraging innovation, we can lead in AI development and drive a global vision for AI public policy. | 新たな政策を検討するにあたり、議会は、あらゆる入手可能な証拠や洞察を活用し、適切かつ的を絞った達成可能な方法で対応できる機敏なアプローチを採用すべきである。この機敏なパラダイムを支えるには、継続的な学習と適応が必要である。議会は、AI技術とその影響が進化するにつれ、政策の有効性を定期的に評価し、更新すべきである。このアプローチに従い、イノベーションを奨励しながら戦略的な行動を取れば、AI開発を主導し、AI公共政策のグローバルなビジョンを推進することができる。 |
This report is certainly not the final word on AI issues for Congress. Instead, it should be viewed as a tool for identifying and evaluating AI policy proposals. Given the breadth of AI policy opportunities and challenges, the report also includes a list of areas for future exploration. | 本報告書は、議会にとってのAI問題に関する最終的な結論というわけではない。むしろ、AI政策の提案を識別し評価するためのツールとして捉えるべきである。AI政策の機会と課題の広範性を踏まえ、本報告書では、今後の検討対象となる分野の一覧も提示している。 |
Philosophy and Principles | 哲学と原則 |
In addition to evaluating specific AI issues, the Task Force adopted several high-level principles to frame this policy analysis. These principles represent high-level policy considerations that transcend specific AI issues and can help guide future congressional efforts. The principles we established are: | 特定のAI問題の評価に加え、タスクフォースは、本政策分析の枠組みとして、いくつかの高レベルの原則を採択した。これらの原則は、特定のAI問題を超越した高レベルの政策検討事項を代表するものであり、今後の議会での取り組みの指針となる可能性がある。 私たちが定めた原則は以下の通りである。 |
• Identify AI Issue Novelty | • AI問題の新規性の識別 |
• Promote AI Innovation | • AIイノベーションの推進 |
• Protect Against AI Risks and Harms | • AIのリスクと悪影響からの保護 |
• Empower Government with AI | • AIによる政府の強化 |
• Affirm the use of a Sectoral Regulatory Structure | • セクター別規制構造の利用を承認する |
• Take an Incremental Approach | • 漸進的なアプローチの採用 |
• Keep Humans at the Center of AI Policy | • 人間をAI政策の中心に据える |
Principle: Identify AI Issue Novelty | 原則:AI問題の新規性の識別 |
Policymakers can avoid duplicative mandates if they consider whether issues raised by AI are truly novel and without precedent or if existing laws and regulations already address the underlying concern. For each AI issue investigated, the novelty of the issue should be identified to understand whether the issue is: | 政策立案者は、AIによって提起された問題が本当に新規で前例のないものなのか、あるいは既存の法律や規制がすでに根本的な懸念に対処しているのかを考慮すれば、重複する義務を回避することができる。調査された各AI問題について、その新規性を識別し、その問題が以下に該当するかを理解すべきである。 |
• Truly new for AI due to capabilities that did not previously exist. When an AI issue has emerged recently due to the nature of available AI technology, this suggests that we need to more thoroughly consider how well existing regulatory regimes address that issue. | • 以前には存在しなかった機能により、AIにとって真に新しいもの。利用可能なAI技術の性質により、AIの問題が最近になって浮上している場合、既存の規制体制がその問題にどの程度対応できているかをより徹底的に検討する必要があることを示唆している。 |
• An existing issue that’s nature has been changed significantly by AI. If AI is exacerbating an existing issue, this suggests that the issue merits consideration but is in concert with the existing policy paradigm. Existing approaches to the issue might be appropriate, but new approaches may also be. Existing regimes may also not be designed to address evolving technologies. Congress should strive to modernize laws and regulations to ensure they are sufficiently technology-neutral in application and enforcement. | • 既存の問題で、その性質がAIによって大幅に変化したもの。AIが既存の問題を悪化させている場合、その問題は検討に値するが、既存の政策パラダイムに沿ったものであることを示唆している。その問題に対する既存のアプローチは適切かもしれないが、新しいアプローチもまた適切かもしれない。既存の体制は、進化するテクノロジーに対応するように設計されていない可能性もある。議会は、法律や規制を近代化し、その適用や施行において十分にテクノロジー中立性を確保するよう努めるべきである。 |
• An existing issue that has not been significantly changed by contemporary AI capabilities. If AI is just one of many ways of accomplishing an old purpose with substantially the same effect, then this suggests that existing laws, regulations, and regulatory bodies are perhaps best positioned to assess and address that issue. | • 現代のAI能力によっても大幅な変化が見られない既存の問題。AIが、実質的に同じ効果をもたらす古い目的を達成する多くの方法のうちの1つにすぎない場合、その問題をアセスメントし対処するには、既存の法律、規制、規制団体が最適である可能性がある。 |
Principle: Promote AI Innovation | 原則:AIイノベーションの推進 |
As the global leader in AI development and deployment, the United States is best positioned to responsibly enable the potential of this transformative technology for all. To maintain this leadership and enable the U.S. economy to harness the full benefits of AI, policymakers should continue to promote AI innovation. | AIの開発と展開における世界のリーダーである米国は、この変革的な技術の潜在能力をすべての人々が責任を持って活用できるようにする上で、最も適した立場にある。このリーダーシップを維持し、米国経済がAIの恩恵を最大限に活用できるようにするため、政策立案者はAIのイノベーションを推進し続けるべきである。 |
Principle: Protect Against AI Risks and Harms | 原則:AIのリスクと悪影響からの保護 |
We have an obligation to protect Americans from both accidental and malicious uses of AI. Meaningful AI governance will require a combination of technical and policy solutions that seek to understand, identify, and mitigate the potential risks and harms from the development and deployment of AI systems. A thoughtful, risk-based approach to AI governance can promote innovation rather than stifle it. | 我々は、AIの偶発的および悪意のある使用から米国国民を守る義務がある。AIシステムの展開と展開から生じる潜在的なリスクと被害を理解、識別、緩和することを目指す技術的および政策的ソリューションの組み合わせが、有意義なAIガバナンスには必要である。AIガバナンスに対する慎重かつリスクベースのアプローチは、イノベーションを抑制するのではなく、促進することができる。 |
Moreover, for every problem that AI creates, AI can be a candidate for helping to remediate or solve that problem. While technological solutions are not always possible, their use in AI policy should be borne in mind as policy is developed. This is especially important as AI technology continues to evolve rapidly, potentially presenting new issues more frequently than in past technological revolutions. | さらに、AIが引き起こす問題のすべてにおいて、AIは、その問題の改善や解決を支援する候補となり得る。技術的解決策が常に可能であるとは限らないが、AI政策におけるその利用は、政策が策定される際に念頭に置かれるべきである。AI技術が急速に進化し続けているため、過去の技術革命よりも頻繁に新たな問題が生じる可能性があるため、これは特に重要である。 |
Principle: Government Leadership in Responsible Use | 原則:責任ある利用における政府のリーダーシップ |
Trust is a necessary component for the widespread adoption of AI by the public and private sectors in the United States. The federal government should foster that trust by adopting responsible principles and policies that capture the benefits of AI while addressing its risks and leading by example. Powering government services with AI is also necessary, given their prominent role in our economy. We must ensure that Congress, federal agencies, courts, and other government entities utilize AI to improve their services, speed, efficiency, and quality | 米国の官民セクターによるAIの広範な導入には、信頼が不可欠である。連邦政府は、AIのメリットを活かしつつ、そのリスクに対処し、模範を示す責任ある原則と政策を採用することで、その信頼を醸成すべきである。AIが経済において重要な役割を果たしていることを踏まえ、政府サービスにAIを活用することも必要である。議会、連邦政府機関、裁判所、その他の政府事業体がAIを活用し、サービス、スピード、効率性、品質を改善することを確保しなければならない |
Principle: Support Sector-Specific Policies | 原則:分野別政策の支援 |
For an agile and focused approach to AI policy, sector-specific regulators within federal agencies and other parts of government should use their existing authority to respond to AI use within their individual domains of expertise and the context of the AI’s use. This would enable more informed and efficient engagement between federal agencies and entities utilizing AI. Agency expertise should remain focused on where it can be most effective. | AI政策への機敏かつ焦点を絞ったアプローチのため、連邦政府機関内の分野別規制当局および政府のその他の部門は、それぞれの専門領域およびAIの使用状況に応じて、既存の権限を活用してAIの使用に対応すべきである。これにより、連邦政府機関とAIを利用する事業体との間で、より情報に基づいた効率的な関与が可能になる。当局の専門性は、最も効果を発揮できる分野に集中すべきである。 |
Sector-specific regulators would also benefit from drawing upon a federal repository of AI resources. Examples of these resources include AI expertise, AI-ready data, computing hardware, technical resources, and evaluations that allow AI risks to be assessed safely. Additionally, coordination among federal agencies through interagency structures could improve access to such resources. Improved access and coordination could empower agencies with AI skills and allow them to share lessons learned while ensuring they continue to specialize in what they do best. | また、各分野の規制当局も、AIリソースの連邦政府リポジトリを活用することで恩恵を受けるだろう。こうしたリソースの例としては、AIの専門知識、AI対応データ、コンピューティングハードウェア、技術リソース、AIリスクを安全にアセスメントできるアセスメントなどが挙げられる。さらに、省庁間構造を通じて連邦政府機関間の調整を図ることで、こうしたリソースへのアクセスを改善できる可能性がある。アクセスと調整の改善により、AIのスキルを備えた機関が強化され、得られた教訓を共有しながら、各機関が得意分野に特化し続けることが可能になるだろう。 |
Principle: Take an Incremental Approach | 原則:漸進的なアプローチの採用 |
AI is a rapidly evolving technology. It is unreasonable to expect Congress to enact legislation this year that could serve as its last word on AI policy. To use AI technology properly requires a carefully designed, durable policy framework. In this report, we propose a number of recommendations to begin to build this framework with the understanding that as AI capabilities continue to advance, we must remain humble and acknowledge we do not know what we do not know. Policy will likely need to adapt and evolve in tandem with advances in AI. Congress must remain vigilant and flexible in how it addresses AI in the years to come. | AIは急速に進化するテクノロジーである。AI政策に関する最終的な決定となる可能性のある法案を今年中に議会が制定することを期待するのは無理がある。AIテクノロジーを適切に利用するには、慎重に設計された堅牢な政策枠組みが必要である。本報告書では、この枠組みの構築に着手するためのいくつかの提言を提案する。AIの能力がさらに進歩を続ける中、我々は謙虚であり続け、自分たちが知らないことはわからないということを認識しなければならない。政策は、AIの進歩に合わせて適応し、進化する必要があるだろう。議会は、今後数年間、AIへの対応において警戒を怠らず、柔軟性を維持しなければならない。 |
Principle: Keep Humans at the Center of AI Policy | 原則:AI政策の中心に人間を据える |
AI systems reflect the principles of the people who design them and require human input to train them. The United States will also need to attract, train, and retain the talent to remain competitive in this technology. Further, the automation that AI brings will have some labor market effects. As policymakers consider laws and regulations focused on AI development and governance, they should focus on human impact and human freedom. | AIシステムは、それを設計する人々の原則を反映し、それらを訓練するには人間のインプットが必要である。米国もまた、このテクノロジーにおける競争力を維持するために、人材を惹きつけ、訓練し、確保する必要がある。さらに、AIがもたらす自動化は労働市場に何らかの影響を与えるだろう。政策立案者がAIの開発とガバナンスに焦点を当てた法律や規制を検討する際には、人間への影響と人間の自由を重視すべきである。 |
人工知能に関する超党派下院タスクフォース:提言の概要
Bipartisan House Task Force on Artificial Intelligence: Overview of Recommendations | 人工知能に関する超党派下院タスクフォース:提言の概要 |
Government Use | 政府による利用 |
Federal agencies have already begun leveraging AI to empower existing agency missions and streamline programs. While use cases vary in application and maturity, the benefits of responsible government use of AI are potentially transformative. However, irresponsible or improper use fosters risks to individual privacy, security, and the fair and equal treatment of all citizens by their government. | 連邦政府機関はすでに、既存の政府機関の任務を強化し、プログラムを合理化するためにAIを活用し始めている。利用事例は用途や成熟度によって異なるが、政府によるAIの責任ある利用は、潜在的に変革をもたらすものである。しかし、無責任な、あるいは不適切な利用は、個人のプライバシー、セキュリティ、および政府によるすべての国民に対する公平かつ平等な処遇に対するリスクを助長する。 |
Key Findings | 主な調査結果 |
• The federal government should utilize core principles and avoid conflicting with existing laws. | • 連邦政府は、基本原則を活用し、既存の法律と矛盾しないようにすべきである。 |
• The federal government should be wary of algorithm-informed decision-making. | • 連邦政府は、アルゴリズムに基づく意思決定に注意を払うべきである。 |
• The federal government should provide notification of AI’s role in governmental functions. | • 連邦政府は、政府機能におけるAIの役割について通知を行うべきである。 |
• Agencies should pay attention to the foundations of AI systems. | • 政府機関は、AIシステムの基盤に注意を払うべきである。 |
• Roles and associated AI knowledge and skills are unclear and highly varied across the federal workforce. | • 連邦政府職員の間で、AIに関する役割や関連知識・スキルが不明確であり、大きく異なっている。 |
• Skills-based hiring is critical for filling the demand for AI talent in the federal workforce. | • 連邦政府職員のAI人材に対する需要を満たすには、スキルに基づく採用が不可欠である。 |
Recommendations | 提言 |
• Take an information and systems-level approach to the use of AI in the federal government. | • 連邦政府におけるAIの利用には、情報およびシステムレベルのアプローチを取る。 |
• Support flexible governance. | • 柔軟なガバナンスを支援する。 |
• Reduce administrative burden and bureaucracy using AI. | • AIを活用して管理上の負担と官僚主義を軽減する。 |
• Require that agencies provide notification of AI’s role in governmental functions. | • 政府機能におけるAIの役割について、各機関が通知を行うことを義務付ける。 |
• Facilitate and adopt AI standards for federal government use. | • 連邦政府での利用に向けたAI標準の促進と採用 |
• Support NIST in developing guidelines for federal AI systems. | • 連邦AIシステムのためのガイドライン開発におけるNISTの支援 |
• Improve cybersecurity of federal systems, including federal AI systems. | • 連邦AIシステムを含む連邦システムのサイバーセキュリティの改善 |
• Encourage data governance strategies that support AI development. | • AI開発を支援するデータガバナンス戦略の奨励 |
• Congress and the government must understand the federal government’s AI workforce needs. | • 連邦議会と政府は、連邦政府のAI人材ニーズを理解しなければならない。 |
• Support different pathways into federal service for AI talent. | • AI人材の連邦政府への参入経路の多様化を支援する。 |
Federal Preemption of State Law | 州法に対する連邦法の優先 |
Preemption of state AI laws by federal legislation is a tool that Congress could use to accomplish various objectives. However, federal preemption presents complex legal and policy issues that should be considered. | 連邦法による州のAI法の優先権は、議会がさまざまな目的を達成するために利用できる手段である。しかし、連邦政府の優先権には、考慮すべき複雑な法的および政策上の問題がある。 |
Key Findings | 主な調査結果 |
• Federal preemption of state law on AI issues is complex. | • 州のAI問題に関する連邦政府の優先権は複雑である。 |
• Federal preemption has benefits and drawbacks. | • 連邦政府の優先権には利点と欠点がある。 |
• Preemption can allow state action subject to floors or ceilings. | • 優先権は、州の行動に最低基準または最高基準を課すことを可能にする。 |
• Preemption can be multifaceted. | • 優先権は多面的な側面を持つ可能性がある。 |
• Definitions must be fit for purpose. | • 定義は目的に適合したものでなければならない。 |
Recommendations | 提言 |
• Study applicable AI regulations across sectors. | • さまざまな分野における適用可能なAI規制を調査する。 |
Data Privacy | データ・プライバシー |
As AI systems amass and analyze vast amounts of data, there are increasing risks of private information being accessed without authorization. Thoughtful and effective data privacy policies and protections will support consumer confidence in the responsible development and deployment of AI systems. | AIシステムが膨大なデータを収集・分析するにつれ、個人情報が認可なくアクセスされるリスクが高まっている。 思慮深く効果的なデータ・プライバシー政策および防御策は、AIシステムの責任ある開発および展開に対する消費者の信頼を支えることになる。 |
Key Findings | 主な調査結果 |
• AI has the potential to exacerbate privacy harms. | • AIはプライバシー侵害を悪化させる可能性がある。 |
• Americans have limited recourse for many privacy harms. | • 米国人は多くのプライバシー侵害に対して限られた救済手段しか持っていない。 |
• Federal privacy laws could potentially augment state laws. | • 連邦プライバシー法は州法を強化する可能性がある。 |
Recommendations | 提言 |
• Explore mechanisms to promote access to data in privacy-enhanced ways. | • プライバシーを向上させる方法でデータへのアクセスを促進する仕組みを検討する。 |
• Ensure privacy laws are generally applicable and technology-neutral. | • プライバシー法が一般的に適用可能で、かつ技術中立であることを保証する。 |
National Security | 国家安全保障 |
Like any major dual-use technology, AI has the potential to both bolster and undermine national security. This underscores its significance in U.S. defense strategy. Currently, the U.S. national security ecosystem is both using and developing AI, but a significant proportion of research and development related to AI is occurring outside of government activities. | 他の主要なデュアルユース技術と同様に、AIは国家安全保障を強化する可能性と損なう可能性の両方を持っている。これは、米国の防衛戦略におけるAIの重要性を強調している。現在、米国の国家安全保障エコシステムはAIを利用し、開発しているが、AIに関連する研究開発の相当な割合は政府の活動外で行われている。 |
Key Findings | 主な調査結果 |
• AI is a critical component of national security. | • AIは国家安全保障の重要な要素である。 |
• U.S. adversaries are adopting and militarizing AI. | • 米国の敵対者はAIの採用と軍事利用を進めている。 |
• National security requires advanced cloud access and AI. | • 国家安全保障には高度なクラウドアクセスとAIが必要である。 |
• National security requires AI for contested environments. | • 国家安全保障には紛争環境におけるAIが必要である。 |
• AI can vastly improve DOD business processes. | • AIは国防総省のビジネスプロセスを大幅に改善できる。 |
Recommendations | 提言 |
• Focus congressional oversight on AI activities for national security. | • 国家安全保障のためのAI活動に焦点を当てた議会監視を行う。 |
• Support expanded AI training at DOD. | • 国防総省におけるAIトレーニングの拡大を支援する。 |
• Continue oversight of autonomous weapons policies. | • 自律型兵器政策の監視を継続する。 |
• Support international cooperation on AI used in military contexts. | • 軍事目的で使用されるAIに関する国際協力の支援。 |
Research, Development, & Standards | 研究、開発、標準 |
The U.S. remains the leader in fundamental research and standards and consistently produces cutting-edge AI applications before other nations. To maintain U.S. leadership in global AI innovation and governance, Congress will need to continue federal R&D efforts, supporting AI evaluations, and bolstering U.S. standardization efforts for AI. | 米国は基礎研究と標準化の分野で依然としてリーダーであり、常に他国に先駆けて最先端のAIアプリケーションを生み出している。米国がAIのグローバルなイノベーションとガバナンスにおけるリーダーシップを維持するためには、連邦議会は連邦政府による研究開発への取り組みを継続し、AIの評価を支援し、AIに関する米国の標準化への取り組みを強化する必要がある。 |
Key Findings | 主な調査結果 |
• Federal investments in fundamental research have enabled the current AI opportunity. | • 基礎研究に対する連邦政府の投資が、現在のAIの好機を可能にした。 |
• Continued AI research and evaluation will promote AI advancement. | • AIの研究と評価を継続することで、AIの進歩が促進される。 |
• Progress in AI R&D is closely linked to access to AI resources. | • AIの研究開発の進歩は、AIリソースへのアクセスと密接に関連している。 |
• A closed AI research ecosystem could limit U.S. competitiveness in AI. | • 閉鎖的なAI研究エコシステムは、米国のAIにおける競争力を制限する可能性がある。 |
• University AI R&D is necessary but must be paired with vibrant technology transfer activities. | • 大学のAI研究開発は必要であるが、活発な技術移転活動と組み合わせる必要がある。 |
• Advancing the science around AI evaluation will help advance adoption. | • AI評価に関する科学の進歩は、AIの普及を促進する。 |
• The U.S. is a global leader in standard setting but faces competitors. | • 米国は標準設定における世界のリーダーであるが、競合相手も存在する。 |
Recommendations | 提言 |
• Continually monitor and evaluate the impact of AI on different industries and the nation. | • さまざまな産業および国家に対するAIの影響を継続的に監視および評価する。 |
• Support fundamental R&D for continued leadership in AI innovation. | • AIイノベーションにおける継続的なリーダーシップを確保するための基礎研究開発を支援する。 |
• Increase technology transfer from university R&D to market. | • 大学での研究開発から市場への技術移転を促進する。 |
• Promote public-private partnerships for AI R&D. | • 人工知能の研究開発における官民連携を推進する。 |
• Promote research and standardization surrounding the evaluation and testing of AI. | • 人工知能の評価とテストに関する研究と標準化を推進する。 |
• Promote the development of infrastructure and data to enable AI research. | • 人工知能の研究を可能にするインフラとデータの開発を推進する。 |
• Continue engagement in international standards development. | • 国際標準の開発への関与を継続する。 |
• Uphold the U.S. approach to setting standards. | • 米国の標準設定のアプローチを支持する。 |
• Align national AI strategy with broader U.S. technology strategy. | • 米国の人工知能戦略をより広範な米国の技術戦略と整合させる。 |
• Explore how to accelerate scientific discovery across disciplines with AI. | • 科学的な発見をAIによって分野横断的に加速する方法を模索する。 |
• Support AI R&D by small businesses. | • 中小企業のAI研究開発を支援する。 |
• Encourage international collaboration with like-minded allies and partners on R&D. | • 研究開発に関して、同じ考えを持つ同盟国やパートナーとの国際的な協力を奨励する。 |
Civil Rights & Civil Liberties | 市民の権利と自由 |
Adverse effects from flawed or misused technologies are not new developments but are consequential considerations in designing and using AI systems. AI models, and software systems more generally, can produce misleading or inaccurate outputs. Acting or making decisions based on flawed outputs can deprive Americans of constitutional rights. | 欠陥のある技術や誤用された技術による悪影響は新しいものではないが、AIシステムの設計や利用においては重要な考慮事項である。AIモデル、そしてより一般的にソフトウェアシステムは、誤解を招くような、あるいは不正確な出力を生み出す可能性がある。欠陥のあるアウトプットに基づいて行動したり意思決定を行うことは、米国人の憲法上の権利を奪う可能性がある。 |
Key Findings | 主な調査結果 |
• Improper use of AI can violate laws and deprive Americans of our most important rights. | • AIの不適切な使用は、法律に違反し、米国人の最も重要な権利を奪う可能性がある。 |
• Understanding the possible flaws and shortcomings of AI models can mitigate potentially harmful uses of AI. | • AIモデルの潜在的な欠陥や欠点を理解することで、AIの有害な使用を緩和できる可能性がある。 |
Recommendations | 提言 |
• Have humans in the loop to actively identify and remedy potential flaws when AI is used in highly consequential decision-making. | • 重大な影響を伴う意思決定にAIが使用される場合は、人間が関与するループを設け、潜在的な欠陥を積極的に識別し、是正する。 |
• Agencies must understand and protect against using AI in discriminatory decisionmaking. | • 政府機関は、差別的な意思決定におけるAIの使用を理解し、防御しなければならない。 |
• Empower sectoral regulators with the tools and expertise to address AI-related risks in their domains. | • それぞれの分野の規制当局に、その分野におけるAI関連のリスクに対処するためのツールと専門知識を与える。 |
• Explore transparency for users affected by decisions made using AI. | • AIを使用して下された決定の影響を受けるユーザーに対して透明性を確保する。 |
• Support standards and technical evaluations to mitigate flawed decision-making involving AI systems. | • AIシステムが関与する欠陥のある意思決定を緩和するための標準および技術評価を支援する。 |
Education & Workforce | 教育と労働力 |
Despite federal and state efforts, the U.S. has a significant gap in the appropriate talent needed to research, develop, and deploy AI applications—and this gap is growing. Educating and training American learners in AI topics will be critical to continued U.S. leadership in AI technology and for America’s economic and national security. | 連邦政府や州政府の取り組みにもかかわらず、米国ではAIアプリケーションの研究、開発、展開に必要な適切な人材に大きなギャップがあり、このギャップは拡大している。米国の学習者にAIに関する教育とトレーニングを行うことは、AI技術における米国の継続的なリーダーシップと、米国の経済および国家安全保障にとって極めて重要である。 |
Key Findings | 主な調査結果 |
• AI is increasingly used in the workplace by both employers and employees. | • 雇用主と従業員の両者によって、職場でのAIの利用がますます増えている。 |
• Fostering domestic AI talent and continued U.S. leadership will require significant improvements in basic STEM education and training. | • 米国におけるAI人材の育成と米国のリーダーシップの継続には、STEM教育とトレーニングの大幅な改善が必要である。 |
• U.S. AI leadership would be strengthened by utilizing a more skilled technical workforce. | • 米国のAIリーダーシップは、より熟練した技術労働力の活用によって強化される。 |
• AI adoption in America requires AI literacy. | • 米国におけるAIの導入には、AIリテラシーが必要である。 |
• K–12 educators need resources to promote AI literacy. | • K-12の教育者は、AIリテラシーを促進するためのリソースを必要としている。 |
Recommendations | 提言 |
• Invest in K–12 STEM and AI Education and Broaden Participation. | • K-12のSTEM教育とAI教育への投資と参加の拡大。 |
• Bolster U.S. AI skills by providing needed AI resources. | • 必要なAIリソースを提供することで、米国のAIスキルを強化する。 |
• Develop a full understanding of the AI workforce in the United States. | • 米国のAI人材に関する完全な理解を深める。 |
• Facilitate public-private partnerships to bolster the AI workforce. | • AI人材を強化するための官民パートナーシップを促進する。 |
• Develop regional expertise when supporting government-university-industry partnerships. | • 政府、大学、産業界のパートナーシップを支援する際に、地域専門知識を開発する。 |
• Broaden pathways to the AI workforce for all Americans. | • すべての米国人がAI人材になるための道筋を広げる。 |
• Support the standardization of work roles, job categories, tasks, skill sets, and competencies for AI-related jobs. | • AI関連の仕事におけるワーク・ロール、職種カテゴリー、タスク、スキルセット、能力の標準化を支援する。 |
• Evaluate existing workforce development programs. | • 既存の労働力開発プログラムを評価する。 |
• Promote AI literacy across the U.S. | • 米国全土でAIリテラシーを推進する。 |
• Empower U.S. educators with AI training and resources. | • AIトレーニングとリソースで米国の教育者を支援する。 |
• Support NSF curricula development. | • NSFカリキュラム開発を支援する。 |
• Monitor the interaction of labor laws and worker protections with AI adoption. | • AIの導入に伴う労働法と労働者防御の相互作用を監視する。 |
Intellectual Property | 知的財産 |
Advances in generative AI technology have introduced new issues for intellectual property (IP) laws, raising questions about how the ownership, creation, and protection of art, writings, brands, songs, inventions, and other creations should be treated. | 生成的AI技術の進歩により、知的財産(IP)法に関する新たな問題が生じ、芸術作品、著作物、ブランド、楽曲、発明、その他の創作物の所有権、創作、防御をどのように扱うべきかという疑問が生じている。 |
Key Findings | 主な調査結果 |
• It is unclear whether legislative action is necessary in some cases, and a number of IP issues are currently in the courts. | • 場合によっては法整備が必要かどうかは不明であり、現在、多くの知的財産権に関する問題が法廷で争われている。 |
• Generative AI poses a unique challenge to the creative community. | • 生成的AIは、クリエイティブなコミュニティに独特な課題を突きつけている。 |
• It is often difficult for creators to know if their copyrighted works are being used by AI developers. | • クリエイターが、自身の著作物がAI開発者によって使用されているかどうかを知るのは困難な場合が多い。 |
• The global IP policy landscape presents challenges and opportunities to both developers and creators. | • 世界的な知的財産権に関する政策の現状は、開発者とクリエイターの両者にとって課題と機会を提示している。 |
• While some use cases are legitimate and protected forms of expression, the proliferation of deepfakes and harmful digital replicas is a significant and ongoing challenge. | • 一部のユースケースは正当な表現形態として保護されるべきであるが、ディープフェイクや有害なデジタル複製物の蔓延は、現在進行中の重大な課題である。 |
Recommendations | 提言 |
• Clarify IP laws, regulations, and agency activity. | • 知的財産権に関する法律、規制、政府機関の活動を明確化する。 |
• Appropriately counter the growing harm of AI-created deepfakes. | • AIが生成したディープフェイクの拡大する被害に適切に対処する。 |
Content Authenticity | コンテンツの真正性 |
Generative AI systems include AI that can generate text, image, video, and audio/voice content. These systems are trained on a large set of existing written, visual, or audio data. The systems identify statistical patterns in this training data and then create novel content that matches these patterns. As generative AI systems continue to be trained with greater amounts of data and more powerful computing resources, they can produce outputs with increasing quality and realism. | 生成的AIシステムには、テキスト、画像、動画、音声/音声を生成できるAIが含まれている。これらのシステムは、大量の既存の文書、視覚、音声データに基づいて訓練される。システムは、この訓練データ内の統計的パターンを識別し、そのパターンに一致する新規コンテンツを作成する。生成的AIシステムがより大量のデータとより強力なコンピューティングリソースで訓練され続けるにつれ、その出力はより高品質で現実味のあるものになる。 |
Key Findings | 主な調査結果 |
• Synthetic content has many beneficial uses, but if used improperly it can create harms and undermine confidence in information integrity. | • 合成コンテンツには多くの有益な用途があるが、不適切に使用された場合には害が生じ、情報の完全性に対する信頼が損なわれる可能性がある。 |
• There is currently no single, optimal technical solution to content authentication. | • コンテンツ認証のための単一の最適な技術的ソリューションは、現時点では存在しない。 |
• Technical literacy would help with the content authenticity challenges but would not be sufficient. | • 技術リテラシーはコンテンツの真正性の課題の解決に役立つが、十分ではない。 |
• Digital identity technology allows a person online to verify who they are and reduces fraud. | • デジタルアイデンティティ技術により、オンライン上の人物が本人であることを確認でき、詐欺を減らすことができる。 |
Recommendations | 提言 |
• Support a risk-based, multipronged approach to content authenticity. | • コンテンツの真正性に対するリスクベースの多角的なアプローチをサポートする。 |
• Support technical solutions to content authenticity. | • コンテンツの真正性に対する技術的ソリューションをサポートする。 |
• Address demonstrable harms, not speculative harms of synthetic content. | • 合成コンテンツの推測上のリスクではなく、実証可能なリスクに対処する。 |
• Identify the responsibilities of AI developers, content producers, and content distributors when it comes to synthetic content. | • 合成コンテンツに関して、AI開発者、コンテンツ制作者、コンテンツ頒布事業者の責任を識別する。 |
• Examine existing laws related to harmful synthetic content. | • 有害な合成コンテンツに関連する既存の法律を調査する。 |
• Ensure victims have the necessary tools. | • 被害者が必要なツールを確実に利用できるようにする。 |
Open & Closed Systems | オープンシステムとクローズドシステム |
Despite often being characterized as either open or closed, there is in fact a continuum of different forms of AI model availability and transparency. Open models offer many benefits, including customization, transparency, and accessibility. However, there is an increased risk that malicious actors could use open models to cause harm, including perpetrating financial fraud, threatening national security, or large-scale identity theft. | オープンシステムまたはクローズドシステムとして特徴付けられることが多いが、実際には、AIモデルの可用性と透明性にはさまざまな形態が連続的に存在している。オープンモデルには、カスタマイズ、透明性、アクセス性など、多くの利点がある。しかし、悪意のある行為者がオープンモデルを利用して、金融詐欺、国家安全保障への脅威、大規模な個人情報盗難などの被害を引き起こすリスクが高まっている。 |
Key Findings | 主な調査結果 |
• Open AI models encourage innovation and competition. | • オープンAIモデルは、イノベーションと競争を促進する。 |
• There is currently limited evidence that open models should be restricted. | • オープンモデルを制限すべきだという証拠は、現時点では限られている。 |
Recommendations | 提言 |
• Encourage innovation and competition in the development of AI models. | • AIモデルの開発におけるイノベーションと競争を奨励する。 |
• Focus on demonstrable harms and physical threats. | • 実証可能な被害と物理的脅威に焦点を当てる。 |
• Evaluate chemical, biological, radiological, or nuclear (CBRN) threats in light of AI capabilities. | • AIの能力を考慮して、化学・生物・放射線・核(CBRN)の脅威を評価する。 |
• Continue to monitor the risks from open-source models. | • オープンソースモデルのリスクを継続的に監視する。 |
Energy Usage & Data Centers | エネルギー利用とデータセンター |
Significant amounts of power are needed to create and use the most advanced AI models, and the data centers supporting AI have increased electricity demand. This creates challenges for electrical grid reliability and affordable electricity, which must be addressed for U.S. economic and national security. AI can also be a valuable tool for developing American energy supplies. | 最先端のAIモデルの作成と使用には膨大な電力が必要であり、AIをサポートするデータセンターは電力需要を増大させている。これは、米国の経済および国家安全保障にとって対処すべき課題である電力網の信頼性と手頃な価格の電力に影響を及ぼす。AIはまた、米国のエネルギー供給の開発にも貴重なツールとなり得る。 |
Key Findings | 主な調査結果 |
• AI is critical to U.S. economic interests and national security and maintaining a sufficiently robust power grid is a necessity. | • AIは米国の経済的利益と国家安全保障にとって不可欠であり、十分に強固な電力網を維持することは必要不可欠である。 |
• The growing demands of AI are creating challenges for the grid. | • AIに対する需要の高まりは、送電網に課題をもたらしている。 |
• Continued U.S. innovation in AI requires innovations in the energy sector. | • 米国におけるAIの継続的な革新には、エネルギー分野における革新が必要である。 |
• Planning properly now for new power generation and transmission is critical for AI innovation and adoption. | • AIの革新と普及には、新たな発電と送電に関する適切な計画が今まさに重要である。 |
• AI tools will play a role in innovation and modernization in the energy sector. | • AIツールは、エネルギー分野における革新と近代化に役割を果たす。 |
Recommendations | 提言 |
• Support and increase federal investments in scientific research that enables innovations in AI hardware, algorithmic efficiency, energy technology development, and energy infrastructure. | • 人工知能のハードウェア、アルゴリズムの効率性、エネルギー技術開発、エネルギーインフラにおけるイノベーションを可能にする科学的研究に対する連邦政府の投資を支援し、増額する。 |
• Strengthen efforts to track and project AI data center power usage. | • 人工知能データセンターの電力使用量を追跡し、予測するための取り組みを強化する。 |
• Create new standards, metrics, and a taxonomy of definitions for communicating relevant energy use and efficiency metrics. | • 関連するエネルギー使用量と効率性指標をコミュニケーションするための新たな標準、測定基準、定義の分類を作成する。 |
• Ensure that AI and the energy grid are a part of broader discussions about grid modernization and security. | • 人工知能とエネルギーグリッドが、グリッドの近代化とセキュリティに関するより広範な議論の一部となることを確保する。 |
• Ensure that the costs of new infrastructure are borne primarily by those customers who receive the associated benefits. | • 新しいインフラのコストは、主にその恩恵を受ける顧客が負担することを保証する。 |
• Promote broader adoption of AI to enhance energy infrastructure, energy production, and energy efficiency. | • エネルギーインフラ、エネルギー生産、エネルギー効率の向上を目的としたAIの導入を促進する。 |
Small Business | 中小企業 |
Small businesses play a crucial role in maintaining the United States' lead in the AI race against other world powers. Unfortunately, small businesses often lack the understanding or resources that would allow them to meaningfully adopt this critical technology. | 米国がAI分野で世界の強豪国に対して優位性を維持する上で、中小企業は重要な役割を果たしている。しかし残念ながら、中小企業は、この重要な技術を有意義に導入するための理解やリソースを欠いていることが多い。 |
Key Findings | 主な調査結果 |
• Small businesses can lack a full understanding of how best to adopt AI. | • 小規模企業は、AIを最適に導入する方法を十分に理解していない可能性がある。 |
• Small businesses can lack sufficient access to capital and AI resources. | • 小規模企業は、資金やAIリソースへの十分なアクセスを欠いている可能性がある。 |
• Small businesses face excessive challenges in meeting AI regulatory compliance. | • 小規模企業は、AIの規制コンプライアンスを満たす上で過剰な課題に直面している。 |
Recommendations | 提言 |
• Support small business AI literacy. | • 小規模企業のAIリテラシーを支援する。 |
• Provide resources for small business AI adoption. | • 小規模企業のAI導入のためのリソースを提供する。 |
• Investigate the resource challenges of small businesses adopting AI. | • AIを導入する小規模企業のリソース上の課題を調査する。 |
• Investigate the resource challenges of small AI businesses. | • AIを導入する小規模なAI企業のリソース上の課題を調査する。 |
• Ease compliance burdens for small businesses. | • 小規模企業におけるコンプライアンスの負担を軽減する。 |
Agriculture | 農業 |
AI has emerged as a powerful tool capable of revolutionizing agriculture. AI advancements have the potential to increase food availability, lower food prices, and bolster economic growth. | AIは農業に革命をもたらす強力なツールとして登場した。AIの進歩は、食糧供給の増加、食糧価格の低下、経済成長の促進につながる可能性がある。 |
Key Findings | 主な調査結果 |
• AI-driven precision agriculture could enhance farm productivity and natural resource management. | • AI主導の精密農業は、農場の生産性と天然資源管理を強化できる可能性がある。 |
• Increased AI integration could enable mechanization and automation technologies and enhance efficiency within the specialty crop industry. | • AIの統合が進めば、機械化および自動化技術が可能になり、特殊作物産業の効率が向上する可能性がある。 |
• Lack of reliable network connectivity in rural and farming communities impedes AI adoption in the agricultural sector. | • 農村部や農業地域における信頼性の高いネットワーク接続の不足が、農業分野におけるAIの導入を妨げている。 |
• AI is already a powerful tool in addressing and combating the wildfire and forest health crises. | • AIは、すでに山火事や森林の健康危機への対応と対策において強力なツールとなっている。 |
• Greater adoption of AI at USDA could enhance delivery of numerous agriculture programs and reduce costs for farmers and others. | • 米国農務省におけるAIの導入拡大は、多数の農業プログラムの提供を強化し、農家やその他の人々のコスト削減につながる可能性がある。 |
• The CFTC’s principles-based approach allows for flexibility in addressing new technologies. | • CFTCの原則に基づくアプローチは、新しいテクノロジーへの対応に柔軟性を与える。 |
Recommendations | 提言 |
• Assess existing programs to identify opportunities for advancing AI in precision agriculture. | • 精密農業におけるAIの進歩の機会を識別するために、既存のプログラムをアセスメントする。 |
• Pursue further AI research and development to enhance efficiency in specialty crops. | • 特殊作物の効率性を高めるために、AIのさらなる研究開発を推進する。 |
• Continue to explore how research and innovation in AI technology could aid land managers in improving forest health through better planning and strategies. | • AI技術の研究と革新が、より良い計画と戦略を通じて土地管理者が森林の健全性を改善するのを支援できる可能性を、引き続き模索する。 |
• Direct USDA to better utilize AI in program delivery. | • プログラムの提供においてAIをより有効に活用するよう、USDAに指示する。 |
• Continue to review the application of the CFTC’s principles-based framework to ensure it captures unique risks posed by AI in financial markets. | • 金融市場におけるAIに特有のリスクを確実に捕捉できるよう、CFTCの原則に基づく枠組みの適用を継続的に見直す。 |
Healthcare | ヘルスケア |
AI technologies have the potential to improve multiple aspects of healthcare research, diagnosis, and care delivery. AI can quickly analyze large data sets, improve diagnostic accuracy, streamline operations and automate routine tasks, all of which have the potential to improve efficiency and efficacy in treatment and reduce burdens on healthcare practitioners, freeing up more time for patient care. | AI技術は、医療研究、診断、医療提供のさまざまな側面を改善する可能性を秘めている。AIは大量のデータを迅速に分析し、診断精度を向上させ、業務を合理化し、日常的な作業を自動化することができる。これらはすべて、治療の効率性と有効性を改善し、医療従事者の負担を軽減し、患者ケアにより多くの時間を割くことを可能にする可能性がある。 |
Key Findings | 主な調査結果 |
• AI's use in healthcare can potentially reduce administrative burdens and speed up drug development and clinical diagnosis. | • 医療分野におけるAIの利用は、管理上の負担を軽減し、医薬品開発と臨床診断を迅速化する可能性がある。 |
• The lack of ubiquitous, uniform standards for medical data and algorithms impedes system interoperability and data sharing. | • 医療データとアルゴリズムのユビキタスで統一された標準が欠如しているため、システムの相互運用性とデータ共有が妨げられている。 |
Recommendations | 提言 |
• Encourage the practices needed to ensure AI in healthcare is safe, transparent, and effective. | • 医療におけるAIの安全性、透明性、有効性を確保するために必要な慣行を奨励する。 |
• Maintain robust support for healthcare research related to AI. | • AIに関連する医療研究への強力な支援を維持する。 |
• Create incentives and guidance to encourage risk management of AI technologies in healthcare across various deployment conditions to support AI adoption and improve privacy, enhance security, and prevent disparate health outcomes. | • AIの導入を支援し、プライバシーの向上、セキュリティの強化、医療結果のばらつきの防止を目的として、さまざまな展開条件における医療分野でのAI技術のリスクマネジメントを奨励するインセンティブとガイダンスを作成する。 |
• Support the development of standards for liability related to AI issues. | • AIの問題に関連する責任に関する標準の開発を支援する。 |
• Support appropriate payment mechanisms without stifling innovation. | • イノベーションを阻害することなく、適切な支払いメカニズムを支援する。 |
Financial Services | 金融サービス |
The financial services sector has employed AI technologies for decades. The ideal environment for continued growth would allow AI innovation to thrive while protecting consumers and maintaining market integrity. By focusing on fostering innovation, enhancing customer experiences, and ensuring financial inclusion, AI can significantly improve the financial sector's efficiency and accessibility. | 金融サービス業界は、数十年にわたってAI技術を採用してきた。 継続的な成長に理想的な環境とは、消費者を保護し、市場の健全性を維持しながら、AIのイノベーションが繁栄できる環境である。 イノベーションの促進、顧客体験の向上、金融包摂の確保に重点的に取り組むことで、AIは金融セクターの効率性とアクセシビリティを大幅に改善できる。 |
Key Findings | 主な調査結果 |
• AI presents an opportunity to transform the financial services sector. | • AIは金融サービス業界を変革する機会をもたらす。 |
• Data quality and data security are paramount in financial service AI models. | • 金融サービスAIモデルでは、データ品質とデータセキュリティが最も重要である。 |
• AI can expand access to financial products and services. | • AIは金融商品やサービスへのアクセスを拡大できる。 |
• AI technologies are already deployed across the financial services sector. | • AIテクノロジーはすでに金融サービス業界全体に展開されている。 |
• Some regulators use AI to identify non-compliance with regulations. | • 一部の規制当局はAIを使用して規制違反を識別している。 |
• Small financial services firms can be at a disadvantage in AI adoption. | • 小規模な金融サービス企業はAIの導入で不利になる可能性がある。 |
Recommendations | 提言 |
• Foster an environment where financial services firms can responsibly adopt the benefits of AI technology. | • 金融サービス企業がAIテクノロジーのメリットを責任を持って導入できる環境を促進する。 |
• Encourage and resource regulators to increase their expertise with AI. | • 規制当局がAIに関する専門性を高めるよう奨励し、リソースを提供する。 |
• Maintain consumer and investor protections in the use of AI in the financial services and housing sectors. | • 金融サービスおよび住宅部門におけるAIの利用において、消費者および投資家の防御を維持する。 |
• Consider the merits of regulatory “sandboxes” that could allow regulators to experiment with AI applications. | • 規制当局がAIの応用を実験的に試すことを可能にする「規制サンドボックス」のメリットを検討する。 |
• Support a principles-based regulatory approach that can accommodate rapid technological changes. | • 急速な技術変化に対応できる原則に基づく規制アプローチを支持する。 |
• Ensure that regulations do not impede small firms from adopting AI tools. | • 規制が小規模な企業によるAIツールの採用を妨げないようにする。 |
附属書 VI:AI の定義上の課題
Appendix VI: Definitional Challenges of AI | 附属書 VI:AI の定義上の課題 |
If artificial intelligence is to be addressed by government activity, such as through legislation or agency rulemaking, it must first be defined appropriately so that the nature of government activity is transparent with clearly delineated boundaries.8 A poorly crafted definition risks being overinclusive or underinclusive and may have unintended effects. | 人工知能が政府活動、例えば立法や政府機関による規則制定などによって取り扱われる場合、政府活動の性質が透明性があり、明確に境界線が引かれているように、まず適切に定義されなければならない。8 拙速に作られた定義は、対象範囲が広すぎたり狭すぎたりするリスクがあり、予期せぬ影響を及ぼす可能性がある。 |
Unfortunately, it can be surprisingly difficult to define the term “artificial intelligence.” Subtle word choices in the definition can significantly influence its scope.9 When New York City established a task force to investigate the use of AI and other types of Automated Decision Systems, they quickly concluded that the definition in the statute posed challenges; it was so broad it could include general tools like internet searches or spreadsheets.10 | 残念ながら、「人工知能」という用語の定義は驚くほど難しい場合がある。定義における微妙な言葉の選択は、その範囲に大きな影響を与える可能性がある。9 ニューヨーク市がAIやその他の自動意思決定システムの使用を調査するタスクフォースを設立した際、彼らはすぐに、法令上の定義には課題があると結論付けた。その定義はあまりにも広範であったため、インターネット検索やスプレッドシートなどの一般的なツールも含まれる可能性があった。10 |
The UN Educational, Scientific and Cultural Organization (UNESCO) avoids defining AI altogether and instead focuses on the particular consequences of using AI.11 Similar challenges exist in defining related terms, such as “frontier AI.”12 For example, different definitions of AI are used in the National Artificial Intelligence Initiative Act of 202013 (NAIIA) and the John S. McCain National Defense Authorization Act for Fiscal Year 2019 (NDAA).14 | 国連教育科学文化機関(UNESCO)は、AIの定義を完全に避け、代わりにAIの使用による特定の影響に焦点を当てている。11 「フロンティアAI」などの関連用語の定義にも同様の課題がある。12 例えば、 2020年の全米人工知能イニシアティブ法(NAIIA)と2019会計年度のジョン・S・マケイン国防権限法(NDAA)では、異なるAIの定義が使用されている。14 |
Section 5002(3) of the NAIIA defines artificial intelligence as: | NAIIAの第5002条(3)では、人工知能を次のように定義している。 |
“a machine-based system that can, for a given set of human-defined objectives, make predictions, recommendations or decisions influencing real or virtual environments. Artificial intelligence systems use machine and human-based inputs to— (A) perceive real and virtual environments; (B) abstract such perceptions into models through analysis in an automated manner; and (C) use model inference to formulate options for information or action.” | 「人間が定義した所定の目的に対して、現実または仮想環境に影響を与える予測、推奨、または決定を行うことができる機械ベースのシステム」と定義している。人工知能システムは、機械および人間による入力を使用して、(A) 現実および仮想環境を認識し、(B) 自動化された分析により、そうした認識をモデルに抽象化し、(C) モデル推論を使用して情報または行動の選択肢を策定する。 |
In contrast, section 238(g) of the NDAA defines artificial intelligence as including any of the following: | これに対し、NDAAの第238条(g)では、人工知能を以下を含むものとして定義している。 |
(1) Any artificial system that performs tasks under varying and unpredictable circumstances without significant human oversight or can learn from experience and improve performance when exposed to data sets. | (1) 人的な管理をほとんど必要とせずに、変化し予測不可能な状況下でタスクを実行する、またはデータセットに触れることで経験から学習し、パフォーマンスを改善することができる、あらゆる人工システム。 |
(2) An artificial system developed in computer software, physical hardware, or other context that solves tasks requiring human-like perception, cognition, planning, learning, communication, or physical action. | (2) 人間のような知覚、認知、計画、学習、コミュニケーション、または物理的な行動を必要とするタスクを実行する、コンピュータソフトウェア、物理的なハードウェア、またはその他のコンテクストで開発された人工システム。 |
(3) An artificial system designed to think or act like a human, including cognitive architectures and neural networks. | (3) 認知アーキテクチャやニューラルネットワークを含め、人間のように思考または行動するように設計された人工システム。 |
(4) A set of techniques, including machine learning, is designed to approximate a cognitive task. (5) An artificial system designed to act rationally, including an intelligent software agent or embodied robot that achieves goals using perception, planning, reasoning, learning, communicating, decision-making, and acting. | (4) 機械学習を含む一連の技術は、認知タスクを近似するように設計されている。 (5) 知的なソフトウェアエージェントや、知覚、計画、推論、学習、コミュニケーション、意思決定、行動を用いて目標を達成する身体化ロボットなど、合理的に行動するように設計された人工システム。 |
The recently introduced Artificial Intelligence Research, Innovation, and Accountability Act of 2023 (S.3312)15 defines an artificial intelligence system as:16 | 最近提出された2023年人工知能研究・イノベーション・説明責任法(S.3312)15では、人工知能システムを次のように定義している。16 |
an engineered system that— | 設計されたシステムで、 |
(A) generates outputs, such as content, predictions, recommendations, or decisions for a given set of human-defined objectives; and ( | (A) 人間が定義した特定の目的に対して、コンテンツ、予測、推奨、または決定などの出力を生成する。 |
B) is designed to operate with varying levels of adaptability and autonomy using machine and human-based inputs. | (B) 機械および人間による入力を使用して、さまざまなレベルの適応性と自律性を備えて動作するように設計されている。 |
The variety of definitions suggests that no single definition is appropriate for all situations. It may be best to narrowly tailor the definition of artificial intelligence depending on the applicable sector and policy objectives of the government activity. | さまざまな定義が存在することは、すべての状況に単一の定義が適切であるわけではないことを示唆している。人工知能の定義は、適用される分野や政府活動の政策目標に応じて、狭く調整することが最善であるかもしれない。 |
ちなみに、欧州AI法におけるAIの定義...
AI 法第 3 条第 1 号
a machine-based system that is designed to operate with varying levels of autonomy and that may exhibit adaptiveness after deployment, and that, for explicit or implicit objectives, infers, from the input it receives, how to generate outputs such as predictions, content, recommendations, or decisions that can influence physical or virtual environments | 様々なレベルの⾃律性で動作するように設計され、展開後に適応性を⽰す可能性があり、明⽰的または 暗黙的な⽬的のために、物理的または仮想的な環境に影響を与えることができる予測、コンテンツ、推奨、 または決定などの出⼒を⽣成する⽅法を、受け取った⼊⼒から推測する機械ベースのシステム |
この議論は、以下も参考に...
● まるちゃんの情報セキュリティ気まぐれ日記
・2024.12.31 欧州法研究所 AI法におけるAIシステムの定義の適用に関するガイドライン:三要素アプローチに関するELIの提案 (2024.12.12)
報道発表の様子...
・[YouTube] House Task Force on Artificial Intelligence Holds a Press Conference on AI Final Report
« 米国 NSA、CISA、FBI他 イスラム革命防衛隊(IRGC)関連のサイバー犯罪者が、米国の上下水道システム施設を含む複数のセクターのPLCを悪用 (2024.12.18) | Main | OECD 経済見通し 2024, 2025, 2026の見通し (2024.12.04) »
Comments