キリスト教主義からAIを考える

Doshisha Spirit Week 2021 秋にて、次の講演をしました。
人工知能(Artificial Intelligence=AI)をキリスト教主義的視点で捉えてみる
というのが一つの新しい試みです。

クララは電気羊の夢を見るか?
廣 安 知 之

講師紹介〔ひろやす・ともゆき〕
同志社大学生命医科学部教授
〔研究テーマ〕ヒト情報のAIとICTによる知的処理

人工知能(Artificial Intelligence=AI)をキリスト教主義的視点で捉えてみる

 生命医科学部の廣安知之です。1998年から工学部の知識工学科にお世話になり、2008年に生命医科学部が立ち上がったタイミングで転籍し、現在、医情報学科に属しています。また、ヒューマンインフォマティクス研究室を日和悟准教授とともに主催しています。同志社大学に赴任してから、AIと情報処理の技術を使ったアルゴリズムの開発にかかわる研究を行っています。
 人工知能(Artificial Intelligence=AI)は、毎日、その単語を聞かない日はないほどよく使われる技術単語となりました。AIの定義は、Wikipediaによると「人工知能は、人工的にコンピュータ上などで人間と同様の知能を実現させようという試み、或いはそのための一連の基礎技術を指す。」とありますが、研究者によってその定義が異なっている状況にある余白のある技術です(文末〔参考文献〕1)。
 本日は、Doshisha Spirit Weekの講演にあたり、AIとキリスト教という2つのキーワードに関する話題提供をしたいと思います。
 AIとキリスト教についての話題提供は、無謀に見えます。今でも私も無謀だと思っています。私の専門である人工知能とキリスト教の関係について考えるきっかけになったのは、2016年度から始まった「同志社大学良心の実証的・実践的研究プロジェクト」への参加でした。プロジェクトリーダーの神学部の小原克博先生から、このプロジェクトを推進するにあたり、AIと良心について議論してほしいというリクエストがあったのです。AIと良心というテーマも無謀なテーマでした。途中は端折りますが、小原先生を始めとして多くの先生方のご協力を得て、AIと良心というテーマで考えることができ、小原先生がまとめられた2冊の図書において結果を公表することができました(文末〔参考文献〕2、3)。そしてさらに、小原先生よりAIとキリスト教について講演してもらえないかというリクエストがあったのです。さすがに最初はお断りしたのですが、議論を続ける中で少しずつ重なる部分も見えてきました。そして、最後に小原先生が言われた一言で少し光明が見えました。「宗教学の一面は、人間とは何なのか?にあります。」という一言です。AIは先に書いたとおり、「人工的に人間と同様の知能を実現させようという試み」です。すなわち、AIを考えるという作業は「人間とは、人間の知能とはということを考える」ことになります。NHKでAIの紹介番組がありましたがそのタイトルも「人間ってナンだ?」でした(文末〔参考文献〕4)。AIも宗教学も「人間とは何なのか?」という共通点があることを教えてもらったのです。
 同志社大学はキリスト教主義の大学です。本講演では、AIをキリスト教主義的視点で捉えてみることを試みます。キリスト教主義的なやり方も様々あるとは思いますが、キリスト教・聖書から問いを立てAIを検討することがその1つではないかと考えています。私は、キリスト教や宗教学については素人であり、本講演では、専門分野については多くを語らない内容になり、また、何か結論を導こうとするものではありません。それでも、私の話をきっかけにして、みなさんとともに考えることができればと思っております。これがConscienceであり、同志社の良心だと考えています。

第3次ブームを迎えた
人工知能(Artificial Intelligence=AI)
 「人工知能(Artificial Intelligence=AI)」という名前は1956年にダートマス会議でジョン・マッカーシーにより命名されたとされています。AIは、これまでにブームと衰退を繰り返し2010年過ぎから第3次のブームを迎えています。今では多くの場面でAIという単語が見られ、さまざまな分野で成果をあげています。
 人の知的な作業の一つに探索があります。その探索能力を測るのにAIが知能ゲームでどの程度、人に勝つことができるのかをみる方法があります。AIが初めてチェスの世界チャンピオンに勝利したのは、1997年でした。IBMが開発したDeep Blueとよばれるスーパーコンピュータを利用しました。IBMではこのシステムをさらに質問応答システムに拡張し、米国の人気クイズ番組「Jeopardy!」にチャレンジし、2011年に人に対して総合でWatsonが勝利しました。2017年になると、コンピュータが現役の将棋の名人位保有者に勝利し、将棋の世界でもAIの実力が認められ始めました。囲碁は将棋より遙かに探索が困難とされていますが、2016年に、Deep Mind社が構築したAlphaGoが世界トップ棋士の李世乭(イセドル)氏に勝利し世界を驚かせました。このように年々、AIは探索の分野で実力をつけつつあります。
 画像探索、生成、識別、分類の分野でも非常に多くの成果をあげています。そこで中心になっているAIの技術が機械学習と呼ばれる技術です。特にDeep Learning(深層学習)がコアな技術であり、革新的な成果をあげました。現在では、自動運転分野、農業分野、医療分野などでAIは広く活用されています。

汎用AI クララ
 このように様々な分野で成果をあげているAIですが、人のように複数のことを同時にうまく処理するわけではありません。人はルールを学ぶことによりチェスも、将棋も、囲碁も遊ぶことができ、実力を上げていくことができます。また、人は音楽を楽しむこともできれば絵画を嗜むこともできます。食事やお酒を味わうこともできます。
 一方、AIは人工物であり、当初設計された目的にあった、特化した機能しか持ち合わせません。これを「特化型AI」と呼ぶことがあります。将棋や囲碁で名人に勝利したAIは、それぞれの分野に特化したAIというわけです。それに対して、人のように多くのことができる機能を有するAIは「汎用型AI」と分類されます。特化型AIは数多く作られてきましたが、汎用型AIの出現はもう少し先になりそうです。また、「特化型AI、汎用型AI」という分類は、場合によっては「弱いAI、強いAI」ともあらわされます(文末〔参考文献〕5)。
 まだ実際には、世の中に出現していない「汎用型AI」ですが、昔から多くの人の関心を集めていました。映画「ターミネーター」では、汎用型AIが未来社会に現れ人類絶滅の危機に陥れるというストーリーでした。『アンドロイドは電気羊の夢を見るか?』は、人と汎用型AIとも言えるアンドロイドとの関係を描いた小説で、映画にもなりました(文末〔参考文献〕6)。最近では、ノーベル賞を受賞した、カズオ・イシグロが、汎用型AIが主人公となる小説、『クララとお日さま』を公開しています(文末〔参考文献〕7)。AIがお日さまに対して神ともいえる感覚を覚えて行動することや、AIの終末、AIの個性など非常におもしろい視点をいくつも披露している小説です。この小説の主人公が「クララ」でした。
 本講演では、「汎用型AI」がどういう存在であるべきかの議論をしたいと思っています。最新型の汎用型AIの「クララ」は、数十年前に問われたとおり「電気羊の夢を見るでしょうか?」テレビアニメの「アルプスの少女ハイジ」にでてくる「クララ」ではないですよ。

AIの倫理問題と
キリスト教主義的視点で
AIを考えるということ
 汎用型AIが出現すると、いくつかの問題が起こると杞憂されています。汎用型AIを取り扱った多くの映画では、それらが反乱したり人に害を及ぼしたりします。その他、AIの知性のベースになっている知識にバイアスがあった場合、AIの判断や行動も問題になることが予想されます。性差別、人種差別などが生じ、就職の際に問題が生じる危険性です。また、問題が起こった場合に誰が責任をとるのかという課題もあります。技術的には自動運転は開発目前です。これは特化型のAIを使った例ですが、責任問題や法律の対応などが未完成のままです。汎用型AIが出現すると人が従事していた仕事が奪われる危険性も指摘されています。このように多くの課題が汎用型AIにはあるのです。
 この問題に対して各国や関連する学会は努力し、対応しようとしています。内閣府は「人間中心のAI社会原則検討会議」を立ち上げ、議論しています。米大統領は「米国のAIにおけるリーダーシップの維持に関する大統領令」に署名しました。IEEE(米国電気電子学会)は、「倫理的に調整された設計 第1エディション」を公表し、日本の人工知能学会も倫理指針を出しています。
 しかしながら、科学は、倫理判断に対して言及ができるのでしょうか。その判断するのは人そのものであり、その判断を行うという行為こそがまさに人間らしい行動であり、判断を科学で規定することは難しそうです。ユヴァル・ノア・ハラリ氏はその著書『ホモ・デウス』で人間の法や規範や価値観に超人的な正当性を与える必要があると述べています(文末(参考文献〕8)。科学は倫理判断に言及はできないが、事実には科学的手法により言及できる。そのため、宗教と科学が組み合わさることで、人間の行動の指針を与えることができる可能性があるとも述べています。このように「汎用型AI」に対する倫理判断を行うためには、宗教と科学を組み合わせる必要があります。
 同志社大学は、ミッション・スクールではありません。新島は、国を背負うべき日本の若者を教育するために、キリスト教主義を徳育の基本としました。それは、新島の見た米国が驚くべき自由の国であり、その根幹となすのがキリスト教であると見抜いたからでありましょう。「汎用型AI」に対する倫理判断を行うためには、宗教と科学を組み合わせる必要があるとするならば、「キリスト教」と「AI」を組み合わせて考えることは同志社大学だからこそできるのではないでしょうか。この講演では、聖書から問いをたて、「汎用型AI」に関してどのようなことが考えられるかをキリスト教主義的検討手法にて行うことを提案します。具体的には、聖書にかかれている事項から次の3問を立て検討を試みます。
(1)世界はどのように作られたのか?
(2)創造主はどうしてこんな人間を造ったのか?
(3)バベルの塔の物語からの学びは?

問1 世界はどのように
作られたのか?
 創世記には、創造主なる神が6日間かけて世界を創造されたとあります。最初に光を造られ、次に大地や生き物を造り、最後に人を造られました。
 この話にはいくつか「汎用型AI」に関連した重要なポイントがあると思います。まず、創造主が世界を造られ、創造主は満足されたということです。造られた後、「見て、良しとされた」とあります。
 次に、創造主はあらゆるものを創り出すことができ、そして、神に似せて人を創造されたというポイントです。また、その創り出されたものは無から造られ、材料を含めて一切合切を創造主が造られたということもポイントです。これらのポイントについては次の章で別の問いを立ててもう少し議論します。
 創造主はあらゆるものを創り出すことができるにもかかわらず全てのものを自身で創り出されませんでした。1週間で作られなかったものは、人によって造ることにされたのです。システム工学では人工物・システムのできることを「機能」と呼びます。また、処理する手順はアルゴリズムと呼ばれます。コンピュータではアルゴリズムがプログラムによって実装され実行されます。人にインプットされた機能、アルゴリズムは何でしょうか?
 創世記からわかることは、人も創造主と同じようにものを創り出す機能があり、それを実行するアルゴリズムが内在されました。人が作るものは「人工物」と呼ばれ、AIも人工物の一つです。次の問いでは人に内在されているアルゴリズムについて考えてみたいと思います。

問2 創造主は
どうしてこんな人間を
造ったのか?
 創造主はどうしてこんな人間を造ったのかが次の問いです。
 創造主は神に似せて人を造りました。しかし、人は創造主を裏切ってしまいます。旧約聖書「創世記」にある失楽園の挿話では、蛇にそそのかされたアダムとエバが、神の禁を破って「禁断の果実」を食べ、エデンの園を追放されてしまいます。創造主に注意されたにもかかわらず、創造主のようになりたいという気持ちがあり、その欲望が勝ってしまったわけです。そして創造主の怒りをかってしまいます。
 創造主はなんでもできるはずです。ところが、人は創造主を裏切ってしまいます。そうなると、創造主はなぜ、創造主を裏切る人を作ったのかという大きな疑問が生じます。天地創造されたときには、創造主はすべてに満足されていたのです。創造主を裏切らない人を造ったほうがよかったのではないでしょうか。創造主を裏切らない人を造っておけば、創造主は今でもおだやかに過ごせたのではないでしょうか。
 エデンの園の逸話からわかることは、もともと人には「創造主のようになりたいと感じる機能があった」ということです。しかしながら、人はこの機能を利用してはいけなかったのです。これは、人がある行為をするかしないかを決める際に、あらかじめ必然的に決まっているわけではなく、その人の意志で決定するという自由意志の問題が存在するということでしょう。そして、人には自由意志により問題を解決する機能とアルゴリズムが内在されているように思えます。すなわち、人は良きことも悪しきこともできるような存在であり、創造主を裏切ることができる自由が創造主から与えられているのだと考えることもできるでしょう。創造主は、創造主に似せて人を造りました。そうなると、AIも自由意志を持つように造るべきではないでしょうか。たとえAIが人を裏切るとしてもです。それは何故でしょうか。
 現在のAIは第3次ブームの最中にあります。言い換えれば、これまで2回、AIの実現を期待して挫折した歴史があります。挫折した理由はいくつかあります。その一つに、知識をすべて洗い出すのが非常に困難であるという問題があります。知識をすべて書き出して、機械に覚えさせ対処することができれば、その機械は人と同等の作業が可能であることは、論理的にはあり得ます。しかしながら、実際に知識の洗い出しをやってみるとすぐに破綻することがわかります。人が処理している知識はあまりに膨大で、洗い出す方法もよくわかりませんし、知識をどのようにうまく使うのか、実時間内でデータにアクセスできるのか、莫大なデータをどのように保存するかなどなどの困難が伴います。
 汎用型AIの実現の際に直面する課題の一つに「フレーム問題」があります。実世界ではさまざまな事象が起こりえますが、何かを実行する際には、当面の問題と関係するかしないかをふるい分け、関係しない問題を無視して関係する問題だけを対応しなければ無限の時間がかかってしまいます。すなわち、フレームを作って、そのフレーム内で考えることが必要なのです。しかしながら、当面の問題がどんなフレームに、どのフレーム内に対応しているのかを判断する必要があり、結局は無限の時間がかかってしまいます。人はこれをうまくやっているように見えます。これがフレーム問題です。この問題からもわかるように全ての知識を洗い出し、行動をルール化することは非常に困難です。
 また、仮にある時点での知識の全てを書き出せたとしてもそれでは不十分です。創造主の造られた世界は刻一刻と変化します。親が子を作る仕組みを有することが生命の本質であるならば、世界は必ず時間が変わると変化します。システム工学では、問題に時間要素のパラメータを有する場合、その問題を動的な問題と呼びます。問題が動的であり、無限時間を対象にせねばならない場合、そこに存在する問題の数は無限になり、全て洗い出すことは不可能です。同志社大学の赤ちゃん学研究センターは、人が生まれる前から、生まれた直後、その発達を一貫して研究するというユニークな研究センターです。そのセンターの研究においても人の成長には外部からの刺激が非常に重要であることが明らかとなっています。
 これに対応する方法、アルゴリズムがその時その時にうまく対応できるようにする方法ではないでしょうか。これをできるようにしている根源が自由意志なのではないでしょうか。汎用型AIを実現するためには、かつて創造主がなされたように自由意志を持つAIの構築が必要なのかもしれません。自由意志を持たせるためには想定した領域外の探索(外挿探索)をさせる必要がありますが、今のところ人が行っているような精度の高い外挿探索の実現は困難です。
 ただし、人は、自由意志を持つ人工物を創る機能は有していますが、それを使うことが許されているのでしょうか。次の問いで考えてみたいと思います。

問3 バベルの塔の
物語からの学びは?
 最後の問いは、バベルの塔の物語です。
 人は石の代わりにレンガをつくり、漆喰の代わりにアスファルトを手に入れます。手にいれた新しい素材を使って、人は天まで届く塔を建てて、有名になろうとし、その結果、神の怒りをかったという話だと思います。人の行動のどこが悪かったのでしょうか。
 天地創造の際に、創造主は材料を含めて一切合切無から造られ、造られなかったものについては人によって造られることを期待されます。そのため、創造主は人に材料から作り出す能力(機能)を人に与えていることになります。その能力を使って人は材料をつくり人工物を作るのですが創造主によって叱られてしまうのです。この逸話からわかることは何でしょうか。
 ここでも、人が持つ機能をすべて自由に使っても良いわけではないということに気づきます。作ってもよいもの、作ってはいけないもの、よく考えて作らなければならないということでしょう。また、人は人であるべきであり、創造主の如く振る舞う行為は好ましい行為ではないということでしょう。人が創造主ごとき力を得ようとする、人の能力の過剰なエンハンスメントも禁止されているように感じます。人の分を知る必要があり、身の程を知る、自分を過大評価しないことが重要でしょう。
 自由意思の議論と同様に、人が何をすべきかを人自身が深く考えることを求められているのでしょう。AIを構築するときにも、作りたいという欲求に行動をまかせるのではなく、よくよく行動を吟味する必要があるのでしょう。心理学者のスタノビッチとウェストは、思考には早い思考と遅い思考の二つのモードがあることを示しました。そして、それぞれ「システム1」「システム2」と呼びました(文末〔参考文献〕9)。システム1は情動と連動し、直感的で速い思考モードのことです。システム2は論理的で遅い思考モードであり、論理的、統計的な思考はこのモードで行います。
 良心に基づく行動もこれら二つのモードが存在するでしょう。良心(システム1)は、直面する問題に対応しようとする動機となります。良心(システム1)に起因する行動は直観的であり、迅速にものごとに対応できます。一方で、論理的に多くのことを検討して問題に対応しなければならない場合もあるでしょう。すなわち、良心(システム2)は、論理的に多くのことを検討して問題に対応しようとする動機となり、「熟考しようとする良心」のことを指します。
 「特化型AI」はこれまでの人工物の延長上にある人工物だと考えられます。「汎用型AI」は、自由意志を有する必要があります。一歩、創造主に近づいているでしょうか。良心(システム2)に起因する行動は、時間を要します。「汎用型AI」を構築しようとしている時に、我々はシステム1ではなくシステム2を起動して行動しているでしょうか。

まとめ
 人工知能(Artificial Intelligence=AI)は「特化型AI」と「汎用型AI」に分類できます。本講演では、「汎用型AI」について、聖書に見られる逸話から検討を進めてみました。
 明確な結論を得るには至っていませんが、一つの方向性は見出せたのではないかと感じます。また、今回お話しした聖書の言葉から、AIや科学を語るキリスト教主義的な手法は見直されて然るべきだと思います。科学に倫理が必須な時代になりましたが人の行動指針を制約するには宗教の力を借りないとできないかもしれないからです。そしてこのキリスト教的な科学とのやりとりは、同志社大学が得意とするところでしょう。
 最初にも申し上げましたが私の話をきっかけにして、みなさんとともに考えることができればと思っております。これがConscienceであり、同志社の良心だと考えています。本日はありがとうございました。

〔参考文献〕
[1]松尾 豊 『人工知能は人間を超えるか:ディープラーニングの先にあるもの』(KADOKAWA 2015)
[2]同志社大学良心学研究センター 『良心学入門』(2018)
[3]同志社大学良心学研究センター 『良心学入門、良心から科学を考える:パンデミック時代への視座』(2021)
[4]NHK 「人間ってナンだ?超AI入門」制作班 『超AI入門―ディープラーニングはどこまで進化するのか』(2019)
[5]鳥海 不二夫 『強いAI・弱いAI:研究者に聞く人工知能の実像』(丸善出版 2017)
[6]フィリップ・K・ディック 『アンドロイドは電気羊の夢を見るか?』(浅倉久志訳 早川書房 1977)
[7]カズオ・イシグロ 『クララとお日さま』(土屋政雄訳 早川書房 2021)
[8]ユヴァル・ノア・ハラリ 『ホモ・デウス:テクノロジーとサピエンスの未来 上・下』(柴田裕之訳 河出書房新社 2018)
[9]ダニエル・カーネマン 『ファスト&スロー:あなたの意思はどのように決まるか?』(村井章子訳 早川書房 2014)

   2021年10月26日 同志社スピリット・ウィーク秋学期
オンラインによる「講演」記録

ヒトが人工物だと判断されるとき

ChatGPTの普及に伴い、その技術の高さに驚嘆し、世間が大いに話題にしています。

GPTはAIによるサービスであり人工物ですが、人工物がAIかどうかを判断することは容易ではありません。
AIの定義がまだ確立されていない現状では、その判定が難しいことは当然です。
しかし、定義ができたとしても、人工物をAIと判断することは依然として困難です。

チューリングテストは、AIが人間と同等の知性を持っているかどうかを評価する手法の一つです。このテストは、アラン・チューリングによって提案されました。
彼は1950年の論文「Computing Machinery and Intelligence」でこの試験を紹介しています。
チューリングテストは通常、以下の手順で実施されます。
1. 人間の評価者が質問を投げかける。
2. AIと人間の回答者がその質問に対して回答する。
3. 評価者は回答を検討し、どちらがAIであるかを判断する。
評価者が両者の区別がつかない場合、つまりAIの回答が人間の回答と同程度の知性を示すと判断された場合、そのAIはチューリングテストに合格したとされます。

2012年から、私は大学一年生の授業でAI技術の概要について2コマ話しています。その際、学生に伝えたいと思ったことの一つは、次のような事実でした。
つまり、AI技術の進展に伴い、人間がAIあるいはそれ以下と判断されてしまうことがあるということです。
2018年に出版された「良心学入門」でも、私はこの点を主張しました。
AIは人工物であり、このような状況下では、人間が人工物以下と判断されかねません。
これは、人間とは何か、人間の尊厳とは何かという問題を揺るがすことになります。
そのため、私たちは自分自身を精進し、常にバージョンアップしていく努力が求められます。
そして、ChatGPTの登場が、私が懸念していた状況を具現化していることを示唆していると考えています。

(この文章はchat GPT4.0の手助けを借りています)

良心学入門

amazon

2018年に小原先生が編集に携わり、「良心学入門」というタイトルの本が出版されました。
廣安は第15章「人工知能と良心」を執筆しています。2018年というタイミングは、2014年11月頃から日本で急速に進展したAIの第3次ブームが始まった時期であり、文理融合的な視点での書籍としてはかなり早期の出版だったと思われます。

現在読み返してみると、当時の文章は論旨がぼやけている感じが否めません。
今もう一度書き直して改善したいところです。

ただ、その当時の状況では仕方なかったところもありました。
人工知能と良心を結びつけるのは無理があるお題だったのです。
私の専門はシステム工学であり、システムという人工物が良心を持つという考えには違和感を感じていました。良心を持つべきは使う側の人間だと思っていたからです。そのため、文章の目的が曖昧になり、良心に直接対峙せず、歴史を振り返る内容になってしまいました。

明確な主張はしていないものの、この文章で伝えたかったポイントは以下の通りです。
1)現在は第3次ブームであること。
2)人工知能は結局のところ、人工物であること。
3)人工知能(AI)には、強いAIと弱いAIの2つのカテゴリが存在すること。
4)作成された人工物が本当に人工知能であるかどうかを判断するのは非常に困難であり、それを判断できる人間も困ってしまうこと。

そして、背後にある感情としては、
1)第3次ブームは一過性のものであり、いずれ終わると考えていた。
2)人工知能が抱える問題は、ほとんどが人工物に共通する一般的な問題であり、人工知能固有の問題ではないこと。
例えば、新しい道具が登場すると、その使い方で人に危害や損害を与える場合があるが、それは人工物だからであり、人工知能特有の問題ではない。仕事が奪われるという議論もあるが、新しい優れた人工物は常にそのような側面を持っている。
3)弱いAIは、能力が低いわけではなく、設計された問題に対しては非常に強力であること。
一方、強いAIはすぐには現れないと考えていた。
4)人工知能であるかどうかを判断することが、人間が人工知能と誤認される危険性を含んでおり、これがもっとも大きな問題であるということ。
良心との関連性を強調しすぎて、文章がぼんやりとしたものになってしまったが、これらの論点をもっとストレートに伝えるべきだったと後悔しています。

現在の状況については、以下のように考えています。
1)個人的には、第4次ブームが始まっていると考えています。
2)人工知能は、結局のところ、人工物であることを忘れてはならないということ。
特に、AIに対して十分な議論が必要な現代において、その議論が科学技術の問題なのか、人工物の問題なのか、それとも人工知能固有の問題なのかをきちんと区別して考える必要があります。
3)対話型の意味で言うと、強いAIが登場しているように感じます。どんな話題にも十分に対応できるからです。これは予想よりも早く実現しました。弱いAIの向上には内挿探索が効果的ですが、強いAIを作るには外挿探索が必要で、そのアルゴリズムを作る手がかりがないため、強いAIの登場はまだ先だと考えられていました。しかし、Generative Modelが膨大なデータを処理した結果、我々は強いAIが出現した(あるいは出現したと錯覚した)と感じるレベルまで達しました。これは、強いAIを作るには外挿探索が必要ではなかったのかもしれませんし、我々が外挿探索を行っていると思っていたのですが、実際には内挿探索がほとんどだったのかもしれません。正直、人間らしさとは外挿探索だと思っていたので、この気づきには驚愕しています。
4)今、まさに人工知能と呼ばれているものが本当に人工知能なのかどうかが判断されようとしており、その行為がリアルな人間を人工知能と誤認する危険を含んでいます。人の仕事が奪われるとか、人の情報が悪用されるとかのレベルではなく、人間が人工物以下として扱われる危険にさらされているのです。

これが、2023年5月の段階での現状かなあ。
(この文章はchat GPT4.0の手助けを借りています)

良心から科学を考える

amazon

小原先生が編集に携わり、「良心から科学を考える」が出版されています。
この本では、廣安が「第10章:AIに関する問題」の執筆を担当しました。

AIについて議論する際、難しいのはそれが人工物の問題、AI固有の問題、あるいは科学技術の問題であるかという点です。
正直なところ、AI固有の問題というよりも、人工物や科学技術が持つ問題がAIの登場によって焦点化されるという認識で、科学技術の持つ問題を扱う他の章も存在する中、執筆の過程では苦労しました。

その結果、完全にまとまりきらない文章になってしまいましたが、強調したかったポイントは以下のようになります。
1)AIの第3次ブームの技術的中心はDeep Learning (DL)である。
2)思考には速い思考「システム1(情動的共感)」と遅い思考「システム2(認知的共感)」があり、良心に基づく行動にもこれら二つのモードに対応した良心(システム1)と良心(システム2)が存在する。
3)AIの成果には、生成された結果がある。
4)学習を論じる際に重要なのは、「使用するデータ」と「学習アルゴリズム」の二つである。
5)AIは人間や社会と独立して存在するものではなく、共生するものである。単体のAIでは問題のない技術・システムであっても、人間と社会が連携し複雑なシステムとなったときに、問題が生じることがある。
6)「人間の知能を圧倒的に拡張する技術」が成果を上げており、この技術は、「知能拡張技術」(Intelligence Amplifier, IA)と呼ばれる。
7)現在のブーム中に、「強いAI」に至ることは難しい。
8)私たちはAIに生命性を感じている。

また、背後にある感情として次のような点が挙げられます。

1)DLは教師あり学習であり、教師データの作成が技術的な障壁となり、これがブームの終焉を引き起こす可能性がある。
2)AIについてじっくりと考え、適切に対処する必要がある。そのためには、良心(システム2)が必要である。決してAIやICTを「よくわからない」とか「あまりよく知らない」と言ってはいけない。よく理解し、自ら対処することが、良心的な行動である。
3)DLに囚われすぎて、生成モデルにまで考えが至っていなかったことに気付く。今読み直すと、AIの成果として生成モデルの話をしている。驚き。
4)特に日本では、「使用するデータ」の重要性に無頓着であることが問題である。アルゴリズムだけでは不十分でデータが必要であり、これらの二つの要素は学習における両輪である。
5)これはAI固有の問題というよりも高度な技術を含んだ人工物の問題であるが、AI単体での議論は意味がない。いずれ人間と社会の中に取り込まれ、複雑系として存在することになる。そのため、AI単体の使用を禁止する議論は無意味である。
6)AIによって私たちの知能が拡張されており、拡張されるように利用することが好ましい。
7)「強いAI」の実現には外挿探索が重要であり、このアルゴリズムを作るのは難しいと考えていた。
8)AIができることが増えるにつれ、人間はAIに生命性を感じるようになっている。
チューリングテストが一つの人工知能かどうかを判断するテストなわけだが、このテストが本質的に表しているのは、
テスト対象の判定ではなくて、受け取りの判定をしているというところだ。
生命性を感じたら対象は生命なのである。
人工知能に生命を感じる場合もあるし、生命を持つヒトに生命を感じない場合もある。
そのときに問題が生じるのである。

この本が出版されたのは2021年の初めであり、それからわずか2年で世界は大きく変わりました。
GPTの進化が進み、その結果、ChatGPTというサービスが広く世間に認知されるようになりました。
現在、私たちは良心を持ってAIと向き合う必要があるという本が求められています。

1)第3次AIブームの技術的中心はDLであったが、現在は大規模言語モデル(LLM)が教師なし学習をベースに、精錬を教師あり学習で行うモデルが注目されている。その意味では、第3次AIブームは終焉を感じさせなかったものの、第3.5次あるいは第4次のAIブームへと移行していると言えるでしょう。
2)今日では、ますます良心(システム2)が重要だと感じられる。
AI技術の急速な発展に伴い、倫理的、社会的な問題に対処するために深い思考が必要となっている。
3)GANはDLの一種であり、今から考えると、LLMの基本となっているGenerative modelに繋がるものであったと言える。
4)現在はアルゴリズムよりもデータの議論が重要である。
日本でもChatGPTのようなサービスを実現するには、データの理解が十分でないと感じられる。
5)LLMを使用しない選択肢は現実的ではない。高度な人工物の利用を排除することは不可能である。
6)「知能拡張技術」(Intelligence Amplifier, IA)の視点は今後も重要であることが予想される。AI技術が人間の知能を補完し、拡張する役割がますます重要になるでしょう。
7)対話型の意味で言うと、強いAIが登場しているように感じられる。どんな話題にも十分に対応できるからである。これは予想よりも早く実現しました。弱いAIの向上には内挿探索が効果的ですが、強いAIを作るには外挿探索が必要で、そのアルゴリズムを作る手がかりがないため、強いAIの登場はまだ先だと考えられていました。しかし、Generative Modelが膨大なデータを処理した結果、我々は強いAIが出現した(あるいは出現したと錯覚した)と感じるレベルまで達しました。これは、強いAIを作るには外挿探索が必要ではなかったのかもしれませんし、我々が外挿探索を行っていると思っていたのですが、実際には内挿探索がほとんどだったのかもしれません。正直、人間らしさとは外挿探索だと思っていたので、この気づきには驚愕しています。
8)LLMの出現とその成果により、人々はますますAIに生命性を感じている。特に、LLMが人間の言語を理解し、対話ができるようになったことで、人々はAIに対してより親近感を抱くようになっています。

これが、2023年5月の段階での現状かなあ。
(この文章はchat GPT4.0の手助けを借りています)

SciFinder-n

同志社大学では、SciFinder-nを利用することができます。

instructed by Tomo
created by chatGPT-4

SciFinder-nは、化学および関連分野の研究情報を検索するためのデータベースです。これは、米国化学会(ACS)が提供する化学情報検索システムで、科学者、研究者、技術者、学生などが、文献、特許、化合物、反応、プロパティ、分析データ、合成プロトコルなどを検索することができます。

SciFinder-nには、世界中の化学関連文献を含むCAS(化学抽出法サービス)レジストリが含まれており、化学者や研究者が検索、分析、およびデータの収集に利用することができます。SciFinder-nは、より直感的なインターフェース、拡張された検索機能、およびより高度な分析機能を提供することで、旧来のSciFinderに代わる次世代の検索ツールとして開発されました。

https://www.jaici.or.jp/cas-scifinder-discovery-platform/cas-scifinder-n/

梅棹忠夫が提唱した「こざね法」

instructed by Tomo
created by chatGPT-4

梅棹忠夫が提唱した「こざね法」とは、情報を効率的に整理・記憶するための手法です。こざね法は、情報を小さな断片に分けてまとめ、それらを組み合わせて新しい知識やアイデアを生み出すという考え方に基づいています。この方法は、アイデアや情報を迅速に取り出し、応用することができるようになるため、創造性や生産性の向上に寄与します。

こざね法では、まず情報を小さな単位、つまり「こざね」に分割します。これにより、情報が見やすく整理され、他の「こざね」と組み合わせて新しい知識やアイデアを生み出しやすくなります。また、定期的に見直しや更新を行うことで、情報を記憶しやすくなります。

以下のウェブサービスは、こざね法を実践する上で役立ちます。

  • Evernote: Evernoteは、ノートや情報を保存・整理するためのクラウドベースのアプリケーションです。こざね法を使ってEvernoteを活用するには、まず情報を小さな断片に分割し、それぞれをノートとして保存します。タグ機能を使って関連するこざねをグループ化し、後で簡単に検索・参照できるようにします。
  • PPT (PowerPoint): PowerPointはプレゼンテーション作成ソフトウェアで、スライドを使って情報を視覚的に整理・提示します。こざね法をPPTで実現するには、1つのスライドに1つのこざねを表現し、それらを組み合わせて新しいアイデアや知識を構築します。また、スライド内のテキストや画像を最小限に抑え、情報を簡潔に伝えるように努めます。
  • Notion: Notionは、ドキュメント、データベース、タスク管理など、様々な機能を提供するオールインワンのワークスペースです。こざね法をNotionで実践するには、ページやデータベースを使って情報を小さな単位に分割し、それらを関連するカテゴリやタグで整理します。また、Notionのリンク機能を使って、関連するこざねを相互に照らし合わせることで、新しい知識やアイデアの組み合わせを容易に作成できます。Notionのテンプレート機能を活用して、一貫したこざねの形式を維持し、情報の整理とアクセスをさらに効率化できます。

これらのウェブサービスを使ってこざね法を実現する方法は、以下の通りです。

  1. まず、情報を小さな断片、つまり「こざね」に分割します。
  2. 適切なサービス(Evernote、PPT、Notionなど)を選択し、情報を整理・保存します。
  3. 関連するこざねをタグ付けやリンク機能を使ってグループ化し、検索・参照が容易になるようにします。
  4. 定期的に見直しや更新を行い、情報を記憶しやすくします。
  5. 新しい知識やアイデアを生み出すために、異なるこざねを組み合わせてみます。

これらのウェブサービスを利用してこざね法を実践することで、情報を効率的に整理・記憶し、創造性や生産性を向上させることができます。特にEvernote、PPT、Notionなどは、それぞれ独自の機能や特長を持ち、こざね法の実現に適したツールとなっています。

【業務連絡】廣安あてのe-mailのお願い

【業務連絡】Eメールに関する注意事項

皆様へのお知らせです。
廣安はEメールを備忘録や仕事のデータベースとしても活用しています。
そのため、以下の点にご注意いただき効率的な情報共有ができるようお願いいたします。

件名について:内容を簡潔に要約したものにしてください。これにより、受信者がメールの目的をすぐに把握できます。
1通のメールに対する案件数:複数の案件を1つのメールで送るのではなく、それぞれ別々に送信してください。面倒かもしれませんが、情報整理が容易になります。
スレッドの維持:できるだけスレッドがつながるように対応してください。関連メールがひとまとめになり、情報追跡が容易になります。

皆様のご協力に感謝いたします。効率的なコミュニケーションを目指して、今後もよろしくお願いいたします。

28th International Symposium on Artificial Life and Robotics: AROB 2023

1月25日に別府で開催された 28th International Symposium on Artificial Life and Robotics に参加しました。

ここ数年やっている
Computational intelligence and cognitive science for human biosignals and human well-being
というセッションを行いました。

研究室関連の4件の発表を行いましたが、フロアの先生方からも質問があり多いに盛り上がりました。
ありがとうございました。

全日から日本中が天気が悪く、JRも止まったり遅れたりで大変でしたが、無事、開催できてよかったです。

下記の基調講演も非常に興味深かったです。
Josh Bongard
The University of Vermont, USA
From rigid to soft to biological robots.

1)進化計算をずいぶん アピールしてくれていた
2)計算から 細胞まですごく研究がつづいていてすばらしかった

別府は相変わらず良い街です。
温泉はあるし、食べ物はうまいし。
外国人も戻ってきているようですね。

また来年、参加したいです。

chatGPT と stable diffusion

2022年は、stable diffusionとchatGPTが発表された非常に重要な年でした。
本当に風が吹いたと思います。
それなら感じろよ ということなんですけど。

LPがCDになり
意見交換手段にe-mailが加わり
インターネットが使えるようになり
webで情報が発信できるようになり
LinuxとくにDebianに出会いFree Software とopenの恩恵を受けるようになり
Googleが出現して検索を変え
iPhoneが出現して我々のIoTを変え
Deep Learningが使えるサービスを提供しはじめた

そんな風を感じます。
また書きます。

AI エージェント と アバター

人工知能学会の学会誌「人工知能」に類似の話があった。興味深い。
https://www.soumu.go.jp/main_content/000851753.pdf
AI エージェントの重要アイテムの1つにアバターがあると思うんだけど、
我々もアバターについて考えていた。https://cir.nii.ac.jp/crid/1390282680590320640
その頃はどうした?
とか言われてたけど、ようやく時代がそのときに考えていた感じにおいついてきた感じだ。
15年くらいはやりつづけてちゃんと成果をださないといけないんだけど。
それが難しい。

分岐となる2023年

2023年はさまざまな領域、分野の分岐となる年だと思っています。
プライベートも仕事も分岐になると思っています。

国際情勢も日本も分岐となるのでしょう。
Covid-19もpost Covidとなるのでしょうね。

2022年はAIにとってエポックメイキングな年でした。
Stable Diffusion, chatGPTは非常に衝撃を与えました。
その技術はさらに2023年に進展し、社会を変えていくでしょう。

うちの准教授が面白いことをいっていて、年始、ずっと考えています。
GPTは情報を収取して、それをもとに学習し、情報を提供しています。
個々のインスタンスを収集して、汎化しテンプレート・パターン・汎化しています。
これまでアカデミックの研究や教育では、汎化された情報の作成や提供が重要だったでしょう。
しかしながら、GPTが集める情報の量に我々は勝てません。
論文もGPTが書くようになるでしょう。

われわれの存在意義は、汎用的な情報提供では勝てなくなります。
いかに我々の個別のインスタンスを提供できるか、それが重要になるでしょう。
アートがますます重要ですね。

廣安はこれからどんなことにチャレンジしていくべきでしょうか。
そのきっかけになる年にしたいと思っています。

ちなみにchatGPTに問いかけると

そうですね。人間は、情報を提供するだけでなく、感情や思考を共有することもできます。人間は、言葉や行動だけでなく、身体や表情でも情報を伝えることができるので、AIよりも個別のインスタンスを提供することができます。また、人間は、物事を解釈して理解することができるので、情報をカスタマイズして提供することもできます。そのため、アートや人間とのインタラクションは、今後も重要であると考えられます。

と答えてくれました。
恐ろしいですね。

廣安が考える同志社大学の Purpose、Vision、Mission、Value

同志社大学は非常に稀有な大学であると思う。
大学を設立した新島襄がよい人物だった上に、文字として考えをたくさん残しているからである。
われわれはそれをなぞっていけばよいからである。
それがなかなかできないんだなあ。

廣安が考える同志社大学の Purpose、Vision、Mission、Valueは新島の言葉で言えば次のようなことになるのではなかろうか。

Purpose(存在意義)
良心とも謂ふ可き人々の養成

Vision(目指している未来)
国の安全と幸福が、国の教育によって養成された人物によって十分に牽引されている社会

Mission(使命)
「地の塩」たる人物の輩出

Value(大切にしていること = 行動指針)
・キリスト教に基づく徳育の実践
・国民自らが国民に行うための教育の実践
・志を同じくし、責任のある自由の獲得

大学ICT推進協議会 2022年度 年次大会

仙台 国際会議場にて開催された
大学ICT推進協議会 2022年度 年次大会
に参加してきました。

国内の対面のあつまりに久々に参加してきました。
少し肌寒い仙台でしたが、あいかわらず飯はうまいし、街はキラキラしてましたね。

大学ICT推進協議会は参加の大学も企業も増えていて活気がありました。
chat botやらRPAもだいぶ使われているようですね。

amazon, google, microsoftと教育のサービスに力いれていて、勉強せねばという気になりました。

LSMのcanvas、SONYのマイクとスピーカー なども気になりました。

micro-credentialについても学びました。
良い勉強になりました。

多くの事例も紹介されて刺激的でした。
先生方、企業の方とも多くはなせて元気がでました。

シリーズ「問われる宗教と“カルト”」

小原先生出演のNHKの番組

番組としては良かったのかもしれないが、お題が納得できないというか、腑に落ちない。
問題・課題が、自分たちがしゃべりたいことになっていて、解決するものになってないと思うのだ。

その中で
「宗教リテラシー」をやらないといけない
というのはそのとおりだと思うし、良いアイディアだし、同志社だからできることだと思う。

どんな同志社大学にしたいか?

同志社大学はただたんに、大学の設置基準をクリアし、毎年、学生を卒業させるだけでは不十分である。
教員すべてが「地の塩」足る人物とはなにかを考えて、その人物を輩出することをボトムラインとしてやっていけるとよいなあ。
今はそのボトムラインが存在しないので、個々の努力ではどうにもならないと感じる。

忘れてたあのリベラリズム

先日、ある方とディスカッションしていて、その方がICTやらAIやらが可能とするリベラリズムについて熱弁を振るっていらっしゃった。
まったくもって同意なのだが、帰り道に、そういや自分も同じようなことを言っていたんだなということを思い出した。

ちょっと前まで、プログラムの授業の最初のときに、なぜ、プログラムを学ぶのかということについて説明していたのだが、
そのときに、
プログラムを学んで、「自由を獲得しよう!」と言っていた。
自身でいろんなサービスを作ることにより、いろんなことができるようになり、何よりも自由になれるのだ。
いつからだろうな。
言わなくなっちゃったのは。学生から、やりたいことやら熱意が見えにくくなってからだな。
やること、次のステップを質問するようになってから、言わなくなっちゃったのかなあ。
でも、プログラミングできるようになると、いろんな束縛から開放されて自由になるんだよな。

博士課程へ進学する意味についても、独立性を獲得できるからというのをあげていたけど、
最近言わなくなっちゃったなあ。
でも、個人が独立して、自由を獲得するのって素敵ではないかい。
そのためには、やっぱ自身で将来を決定し、そのために博士課程いかなきゃな。
独立して生きて生きたいひと、減っちゃったなあ。そう感じる。

あの大学が元気な理由

あの大学が元気な理由

Between 2022年No304

この雑誌やらサイトが提供する情報についてはまったくの勉強不足です。
ただ、
「あの大学が元気な理由」
っていうキャッチはすごく好きですね。

僕ももっとうまく学生と交わることができれば、僕ももっと元気になることができます。

現場で使える! Python科学技術計算入門


授業で、pythonを教えています。
特に科学技術計算で利用できるようになることをゴールにしています。

この図書はこちらが期待したほど科学技術計算に特化したものではなかったですね。
もう少しマニアックな内容のものを探しています。