テクニカルノート
AI(諸刃の剣)トピックス その1
個人会員 新井 全勝
イーロンマスク氏は、ある会議で、「コンピューターとロボットがあなたたちよりすべてのことをもっと上手くこなせるなら、あなたの人生に意味ってあるのかな? 」と、問題提起したそうです。本当の問題はそこにありそうですね。
諸刃の剣を持つといわれるAIですが、その能力や安全性等に関してトピックスをお伝えしていこうと思います。
1. AIの筋トレ実践:AI活用法
対話型生成AIを使いこなすには「AIの筋トレ」が必要であると明言し、日常の仕事の中に組み込み、自ら実践している著名人がいる。自ら使って見極める態度が必要なのであろう。
2. OpenAIの安全性に関する問題について
5月28日に、対話型生成AI「copilot」に問い合わせてみました。以下はその回答です。
OpenAIの安全性に関する問題について、いくつかの重要なポイントを共有します。OpenAIはAIの安全性に対する研究と取り組みを行っていますが、一部の問題が浮上しています。
(1) スーパーアライメントチームの解散
OpenAIは「スーパーアライメント」チームを設立し、人間の知性を超える「超知性」の開発に備えてAIを制御するための研究を行っていました。しかし、スーパーアライメントチームはイルヤ・サツキヴァー氏とヤン・ライク氏の退社により事実上解散しました。ライク氏は「OpenAIで安全性が軽視されている」と指摘しています。
この問題は、AIの安全性を確保するための重要な取り組みが進行中であることを示しています。
(2) バグ報奨金プログラム
OpenAIはバグ報奨金プログラムを開始しましたが、特定の問題は対象外とされています。例えば、AIモデルの安全性に関する問題は、直接的に修正できる個別のバグではないため、報奨金の対象外とされています。
(3) AIの安全性と能力の両立
- OpenAIはAIの安全性と能力を向上させることを両立させるべきだと考えています。
- これは、AIの研究を進めながら、安全性に対する懸念を解決するための効果的なアプローチを模索していることを意味しています。
OpenAIは引き続きAIの安全性に取り組んでおり、透明性とコラボレーションを大切にしています。今後もAI技術の発展と安全性の両立に向けて努力を続けていくことでしょう。
3. オープンAI、安全性に関する委員会設置
オープンAIは、AIの安全対策を強化するため、安全性に関する重要な決定について勧告を行う委員会を設置したと、5月28日に発表しました。
【ChatGPTのOpenAI AIの安全対策強化のため委員会を設置 | NHK | 生成AI・人工知能】
4. AI導入が進む業界は生産性が上昇、PwCリポート
2018年から2022年までのデータを分析し、AI導入が進む業界とそうでない業界の生産性を比較しています。
・AI導入が進む業界:専門・金融サービス、情報技術(IT)
・AI導入が遅れている業界:建設、製造、小売、食品、運輸
この結果、AI導入が進む業界の生産性は4.3%向上したのに対し、導入が遅れている業界は0.9%の伸びにとどまった。
【AI導入が進む業界は生産性が急上昇、PwCリポート (msn.com)】参照。
5. 事業者向けAIガイドライン設定
2024年4月、経済産業省と総務省は、生成AIの普及を始めとする近年の技術の急激な変化等に対応すべく、有識者等と議論を重ね、関連する既存のガイドライン(注)を統合・アップデートし、「AI事業者ガイドライン(第1.0版)」を取りまとめました。
(注)①AI開発ガイドライン(平成29年、総務省)、②AI利活用ガイドライン(令和元年、総務省)、③AI原則実践のためのガバナンスガイドラインVer1.1(令和4年、経済産業省)
【「AI事業者ガイドライン(第1.0版)」を取りまとめました (METI/経済産業省)】
6.「ロボットが働き、人間は何もしない社会」の意義
イーロン・マスク氏はパリで開催された「VIVA TECHNOLOGY 2024」にリモート参加し、未来についてのディストピア的なビジョンについて語っている。その中で、お金や仕事に頼らなくていい未来では、人間が目的を失うという実存的な問題についても説明し、次のように語ったそうです。
「コンピューターとロボットがあなたたちよりすべてのことをもっと上手くこなせるなら、あなたの人生に意味ってあるのかな?
未来のいい方のシナリオで起こる本当の問題はそっちになるだろう」
【ロボットが働き、人間は何もしない社会。そこに生きる意味はあるのか? (msn.com)】
以上