夜明けの形式

印刷

梗 概

夜明けの形式

副業で無限労働してまあなんか動くAIができて打ち上げした話。

研究室の先輩である真野さんの大学発ベンチャーで副業する。研究室時代に整備したデータセットとツールをメンテナンスするインターンの指導をする。
創立メンバーで後輩の辻に感情タグのアノテーションを頼まれる。主流の巨大モデルを作るアプローチは自分たちのリソースでは不可能なため、別のアルゴリズムを使うため感情タグが必要だ。
しかし、僕はそのデータを無価値だと考えているので反対する。実際にタグ付けに失敗した事例を見つける。
週明けの木曜日、辻のインターンは感情タグの精度が低いことを検証したので、非言語情報の活用することにする。そのアノテーションを頼まれる。
土日にアノテーションツールを作り直す。辻とインターンは既存のアルゴリズムを、非言語情報の入力に対応させていた。
決済が通って、クラウドにサービスをデプロイして、業者にアノテーションの依頼が行われた。土日を休んだら、週明けにアノテーションデータのチェックに追われた。
僕の忙しさが落ち着く。非言語情報を活用した対話モデルは映像や音声から人間の内部状態を予測できることが確認できる。
モデルの出力(人間の内部状態)をクラスタリングすると14ある。AIは人間の感情がその個数あると認識している。半数が一般的に言われているもので、残りはわからなかった。女性にしか存在しない状態も2あった。
このモデルのデバッグのため、インターンは三秒で泣いて悲しみを認識させたり、無の取得で長時間の集中を実現したりしていた。自分にはできなかったが、インターンたちは感情を道具として使えるようになっていた。
打ち上げで感情は扁桃体由来で脳の高速な判断のために生じていると聞く。効率の良い判断は感情はできない。感情は進化の途上で獲得されたもので退化していくのだろう。より新しいアプローチは感情を認識しない。対話構造を生成するのに人間の内部表現を使う今回のアプローチは早晩過去のものとなる。確かにAIは感情を持っていない。AGIになれば感情を理解するとか言われているが、それを考えると違うのではないかと思い始める。とはいえ、それでこの会社の仕事がなくなるわけではない。
「来年の春休みのインターンの指導とかどう?」と聞かれる。一ヶ月毎日12時間労働は絶対に避けたい気持ちで「やらないよ」と答えた。ただ、またやるような気もしている。シンギュラリティが来ても、AGIができても、人間のための道具としてのAIは人間が作らざるを得ない。だから、今回のデータフォーマット、あれの開発者として謝辞にでも名前を載せてくれたら考える、と伝えた。

文字数:1095

内容に関するアピール

小説全然書けない、もうダメという感じなのですが、治すために書くしかないと考えたので書きます。
今回は人生の話なら許される(?)ので、今夏、労働が無限に忙しかった件を書きました。フェイクが入っているので、フィクションとは主張できる。連日十二時間労働はキツかった。
なお、原文はもっと無駄に長い(1万字)のがあって、せっかくなので下記に貼っておきます。現代は自動要約みたいなものが使えるので便利ですね。


副業先のslackの「感情タグの追加アノテーションをお願いできませんか?」という書き込みに僕は即座に「マジすか」「反対です」というスタンプをつけた。僕はあのデータは完全にゴミだと考えており、せいぜいそれを念頭に使うもので、追加するものじゃないと考えていたからだ。「今huddleに入れますか?」とメンション付きで書き込んでスピーカーホンの電源を入れて待機する。夜の六時五十六分、僕の終業予定四分前にミーティングが始まった。
始まりを辿るなら十数年前の研究室時代に遡るわけだが、この副業の話が持ち込まれたのは二ヶ月前の事だ。
『二年ぶりですね。先日大学発ベンチャーという形で起業しました。こちらでの副業に興味はないでしょうか?』というfacebookのメッセージ。送り主は大学院時代、同じ研究室の博士課程であった先輩である真野さんだ。二年ぶり、それはパンデミック直前の年明け、研究室合同の卒論発表会という場で会ったのが最後でしたね、という意味だ。
僕は卒業してからこまめに卒論発表会には行っていた。自分はいわゆるメガベンチャーに就職しており、当時から初任給五百万円と掲げるぐらいにITエンジニアは採用難であったわけで、卒論発表の場で発表している修士二年の話を聞きに行くという名目で、修士一年にとりあえず会社受けてくださいよと勧誘しに言っていたのだ。リファラル新卒採用ということになるだろう。多分。そんな感じで顔は出していたので後に助手として戻ってきた真野さんと繋がったと思っている。
そういう下地があった上で、研究室でやっていた活動が必要とされたのだ。僕がいた下村研はロボットをやっている。過去には万博で展示されたロボットを作ったりしたこともあったようだ。ロボットといっても二足で歩くとか複雑な操作ができるということはなく、移動は車輪だし腕はジェスチャー目的で何も掴むことはできない。コミュニケーションロボットというやつだ。そういうわけでコンピュータサイエンスの集大成(ハードウェア除く)みたいな側面があって(制御はエンジニアリングだから含まないという立場だが)、研究室では画像認識やら音声認識というプリミティブな部分から話者や性別年齢推計、対話のための文面生成に話題の検索システムまでを手広くやっていた。そう広範にやっていた研究室で僕は何をやっていたかというと、対話システム、におけるデータセットのフォーマット定義、管理システムを始めとしたツールの実装、周辺ライブラリの作成をした。ぶっちゃけ研究ではない。個人ゲーム開発で一部であるあるの、ゲームを作る前にゲームエンジンを作って終わるやつである。
そういう完全に実装に振った奴だが、下村研におけるデータ形式として全面的に採用された。あれだけドキュメントやチュートリアル(ゆっくり霊夢AAが挟まっていたはずだ)を整備した価値があったというものだ。フォーマット名はharmony v2であるが同名のSF小説とは無関係だ。これは別の先輩がまず作ったフォーマットがharmony v1と呼ばれており、それはその先輩がその小説にハマったから作られた、作中で出てくるetml 1.2と互換性のあるフォーマットであった。それを僕が名前以外全部捨てたのがこれである。これは仕方ないことで、xmlっぽいのにxmlパーサーが使えないのという致命的な欠陥があり、僕じゃなくても廃止したはずだ(validなxmlではなくjsonで置き換えたのは英断だったと思う)。
そういう大学院時代だったが、この活動を何とか対話システムを支える技術みたいなお題目に仕立て上げて卒業もした。その後、就職して、会社の抱えるウェブサービスのチームを転々としながら、過去二回新規プロジェクト立ち上げを経験しつつ、プログラマーをやってきたわけだ。
『高倉くんが整備したharmony v2、まだ使われているんだよね』
真野の会社ではコミュニケーションロボット開発を行うのだが、それは研究室のスピンアウトであり、当然、研究室の資産が使われていた。それのメンテナンスに研究室出身の学生アルバイトが入ることを伝えられて、その指導とかどうかなと提案される。
『それ単純にインターンのメンターじゃないですか(笑)』と返信しつつも、本業が終わってからさらにガッツリコードを書くようなタスクよりは、デイリーミーティングやって、コードレビューをやるぐらいの方が良さそうと言う判断をする。
『まあ、そのくらいならちょうどいいかもしれません』と今考えれば大間違いな返信をした。
インターン開始まで時間があったので、今使われているツールを見ると十年前に自分が書いたjqueryによるレガシーコードが残っていてゲラゲラ笑いつつ、githubのissueにリファクタリングするようにと起票する。今回はコードはなるべく書かない。基本全部学生にぶん投げて、自分は書かれたコードを眺めて雑談するだけの簡単なお仕事にする計画だ。
そして、インターンが始まった。自分の生活は規則正しい。フルリモート勤務であるが午前九時に本業を始業する。そして、休息一時間込みの午後五時に本業の終業する。それと同時にプロファイルの異なるブラウザを立ち上げ、副業先のコビイング社のslackに入る。インターンとのdailyをやって、画面共有は残したままPRを全部処理する。毎日二時間ほど残業するイメージだ。そうして過ごした八月一週目の金曜日、上のメッセージが飛んできたというわけだ。huddle、slackの音声通話に書き込んだ人が入ってくる。
「辻さん、お疲れ様です」
「お疲れ様です。高倉さん」
「いきなりすみませんね。感情タグの件なんだけど、僕は追加アノテーションに反対なんですよね。このデータが入っているtagsなんだけど、雑多なメタデータを小規模に付けるような枠組みで、大規模にアノテーションするとか考えていないんですよ。だから、そういう風に扱うならデータとして綺麗に格納しないといけないみたいな扱いの物なんですね」
「あーはい、なんで、そういう実装もお願いしようと思っていました」
辻は後輩の博士でこの会社の創立メンバーの一人だ。今の対話システムを大枠を考案しており、当時の卒論発表で感心した覚えがある。その彼が感情タグ(対話における発話者の内部状態を喜びだとか悲しみだとかつけたアノテーションデータ)にこだわるのは分かる。なぜならそのシステムにおいては自然な会話は感情の適切な連鎖において実現されると定義されており、故に感情タグが対話の実現に必須だからだ。
「でも、そのデータ作るのは明らかに筋が悪いと思うんですよね……」
と言いながら、jqで元データを適当に眺めながら反例を探す。タグは小規模な情報なので付与者のidというかメールアドレスがついている。適当に集計のワンライナーを書く。付けていたのは十人ほどで、件数やら傾向やらの統計情報を出していく。
「これまず、辻さんが頑張って付けたとは思うんですけど、それ以外は多分毎年一人だから対話チームのB4ですかね。これ作業者間でどのくらい揺らぎがあるかわかりませんかね……」
と言いながら少ない感情タグのデータを適当に開いていく。都合の悪そうなのを見つける。
「この人狼やっている対話の感情タグ、作業者間で結構ばらつきありますよね」
辻はその実データを見て考え込む。
AIというよりもディープラーニングの進化は狭い見方をすれば去年で一度落ち着いた。無論、性能自体は上がり続けているが、巨視的なアプローチとしては一つしかない。巨大なパラメータ数を持つモデルを作って、巨大な学習データセットを食わせると実現できる。そういう風にとにかく計算機なりデータなりのリソースをかき集めれば高性能になる、というのが潮流だ。つまるところ、それはほぼ巨大IT企業にしかできない、少なくとも研究室とかそこからスピンアウトしたスタートアップにはかなり難しいところにある。こちらの規模でできるのは、それらのモデルのうち公開されているものに対して、手元のデータセットを使ってファインチューニングすることぐらいだ。なので進化の方向性が巨大モデルによって縛られているというわけだ。文章を生成するとか画像を生成するとか、そういう存在するものはできる。だがモデルが存在もしないこと、それこそ目標とする方向に会話を徐々に誘導する(AIのべりすとが好き勝手書いてしまう問題の解決とも言えるだろう)とかはチューニングの域を超えており、新たなモデルを作ろうにも主流の巨大モデルのアプローチは現在自分たちのリソースでは不可能だ。
なれば対応策は一つしか無い。既存の非ディープラーニング手法と組み合わせる、だ。辻が昔ディープラーニング興隆以前に開発したアルゴリズムはそういうものだ。人間の発話から感情を予測しつつ、適切な感情を遷移を経て会話のゴールに近づける、ゲームAIのモンテカルロ木探索を連想させるようなものである。彼自身が麻雀が好きでAIを作っていたところに着想を得たというのというのを聞いたことがあった。
「GPT-3でもまだ質問に対して解答を生成するしかできないからねえ」
というのがインターン開始前に辻が言っていたことだ。現在のAIは直截的過ぎる。知性の終着点を考えればそうだろう。問われたことに答えないケースを想定していない。だが、この会社、というか下村研ではコミュニケーションをもっとゆったりしたものと考えている。人はコミュニケーションで解答だけを求めているわけではない。だから、システムにおける対話を実現するに辺り、発話した文脈の他に人間の内部状態即ち感情を仮定してステップを進めるなど、対話を定義することが試みられてきた。とはいえだ。
「正直、この感情のタグ付けの時点で揺らぎが大分あると思うんですよね」
これは本業でもやった経験則からだ。昔やった写真に写る人間に対して枠をつけるという単純なアノテーションであってもコーナーケースが多数、後ろを向いている、写真から一部見切れている、着ぐるみを着ている、水溜まりにだけ映り込んでいる、などなど数十浮かび、それを全て手順書に落とし込んだ。それに比べて、こんな複雑なタスクにしてはアノテーション手順書が、動画で喋る人の感情を予想して付けましょう、ぐらいにしか無かったのだ。基準が明瞭だとは到底思えなかった。そういう話をすると、「確かにインターンの初回タスクを見直した方が良さそうですね。対話システムの改善というざっくりとしたテーマだったので、アノテーターごとのアノテーション精度の検証ぐらいからやってみようと思います」と返ってきた。そのくらいの方がいいと思った。
週が明けて、これはアノテーションが直近で大規模化する可能性があるから、設計をこういう風にしましょう、タグの部分は何かうまいアプローチ思いついたりしますかね、みたいな感じでインターンにタスクを色々ぶん投げて、実装のチェックをしてと過ごして、木曜日になった。
『ちょっと以下のようなアノテーションをしたいのですが可能でしょうか?』
該当するレポートチャンネルは見ていたので進捗は知っていた。既存の感情タグは結構壊れているというまあ予想通りの結論が実験的に示されて、感情タグに変わる情報として非言語情報に行き着いていた。例えば、評論家のがっかり邦画の感想としての「最悪ですね」とジャンルの好事家がサメ映画を見たときの「最悪ですね」は声のトーンからして違うだろう。そういうものを取りたいという話だったので、僕は迷いなく返信した。
『harmony v2はそれ対応していますし、なんなら一部のデータセットその形式で作られていますよ』
十年前、つまり、もっと音声認識の精度が悪かった時代。認識が悪くて音声の書き起こしが取れなかったので、人間の発話の活用するプログラムから目を付けていたのは相づちだったり言いよどみだったりした。なので、そういう非言語情報は当然データセットで表現可能だった。とはいえ、入力が面倒だったり、その後精度がどんどん上がっていったこともあって活用されず、その形式のデータはあまり作られていなかったのだけど。
「テステス。本日は晴天なり、本日は晴天なり」と書き起こせど、「あーテステス。えー本日はー晴天なり、本日は晴天なり、はい」みたいなもの、それも発話の時間情報とすり合わせながらの入力は中々やらない。まず他純に面倒であり、特にそれの聞き取りが難しくなればなるほど、特に面倒になるからだ。とはいえ、まずは自分たちで付けないといけないので、そのアノテーションが付けれるレガシーツールが動いたサーバーに案内すると、案の定「つらい」というスタンプが付いた。
『なんか改善案あったらスレッドに書いてきてください』
とslackに書いてから、その機能のモダンな再設計タスクをgithubのissueに突っ込む。このアプローチ試すならデータセット作る可能性も高いわけで、モデル側の最良のケースを考えると外注できる程度には直さないといけない。自分がメンターをするインターンにメンションを飛ばす。
『このタスクを優先順位高めにやるので作業整理するミーティングします』
それを片付けた後、この時期は結局残業時間をガンガン積んで、クラウドに乗せてある新しいサーバーサイドと繋ぐようなコードをごちゃごちゃjavascriptに移植していた記憶しかない。今思えば、この段階でまず全部typescriptベースに置き換えた方が良かった。実際あとでやったし。そうすればライブラリを普通に読み込めたわけで、umd形式に変換して無理矢理繋ぐとかやる必要はなかったはずだ。とはいえ、気合いと土日があれば何でもできるわけで、週明け、全部移植を終えて必要ならクラウドソーシングする準備が整っていた。
休日が消えたような気がしながらも、月曜の朝から普通に本業の方をやって、終業した夕方、副業のslackに入ると予想通りのメッセージがあった。
『非言語データ活用アルゴリズムができそうなので、こちらでアノテーションお願いできますか?』
感情タグを使っていたときから別に感情の数に制限は無かった。5でも6でも7でも8でも24でもいい。まあ、計算量が多くなるのでラベルが多いと困るといえば困るのだが。別にコンピュータは喜びとか悲しみとかのラベル文字列を見ているわけではない。会話における内部状態がことなるという1次元データを与えられているに過ぎない。だから、そこの値に、通常の出力層より手前で取得された多次元データを放り込むというアプローチを取ったのだ。もちろん、表現の仕方が大分変わるのと、計算量の問題があるのと、近しいデータみたいなのを上手く取り扱うなど、やらなければいけないことは色々あったようだが、以前からアイディアとしては温めていたこともあったようで、とりあえず、データが生えたら何かできそうという部分に行き着いたようだった。
『感情タグほどじゃないですがアノテーションが面倒そうなデータですね。単価がヤバそう』と真野にもメンションを飛ばしておく。実際にお金でゴーノーゴーを決めるのは多分彼の役割だ。少なくとも僕ではない。するとslackに書き込まれる。発言者はインターン。
『このデータ、既存のモデルである程度つけれるので、その修正とかでいけませんかね?』
いわゆる自動アノテーションという発想だ。「まかせた」というスタンプを付けておく。そっからまた二日だったか三日だったかも開発祭りだった。アノテーションツール開発の面白さは人間が機械のデータを作るツールであるところだ。人間に寄せると機械から使い勝手が悪いし、機械に寄せると人間の作業が辛くなる。そのバランスを取りつつ作るのが楽しいのだ。半自動化、クリックのみでの修正、そういう機能を作っていく。特に書き起こしの素起こしが必要で、既存の研究室モデルを組み合わせツールとしてのカオスさは増していく。僕に関しては副業で夜だけの参加だから、コードレビューのボトルネックになってしまうので、当然issue処理、つまりガンガン実装することになる。どうして……。8月の梗概の〆切が来たのでえいやで片付けた記憶がある。
気づいたら、なんか決済が下りたとか連絡が入って、クラウドにサービスをデプロイして、業者にアノテーションの依頼が行われた(これは別の社員がちゃんとやってくれた)。初日にバグが見つかったとかはまあいいだろう。直ったし。週末に入る前までにアノテーションのコーナーケースがバンバン見つかるので、どんどんアノテーションマニュアルのページ数が増えていく。まあ、そういうもんだ。ただそこは僕が本業をやっている時間に各員が対応していたので、僕は完成品を眺めただけだ。じゃあ、何もやらなかったのかというとそんなことはない。アノテーションが付いたデータを受け取ったら、検品というチェック作業があるわけで、それを無限にやっていた。本当に無限に。付与より確認の方が楽といえば楽だが、作業者の方が自分たちよりも人数は多いわけで、一人当たりのチェック分量はただただ圧倒されることになる。無の気持ちで黙々とやることになる。クラウドワーカーに土日はないので、その間もデータが来る。その週は流石に休んだら、週明けヤバいことになっていた。とはいえ、インターンは長くて九月の夏休み明けまでだ。この時点で残りひと月ほどと考えれば、インターンを十全に働かせることを考えると、ここで社員も副業の人間も頑張るしかないという奴だった。頑張ることは慣れている。
ここまでデータセットを作ったのは久しぶりのことだった。僕の副業の忙しさはそれで終わった。だから、晴れやかな気持ちでそれを活用する対話チームの活動を眺めることになった。まあ、この日の時点では翌月本業のプロジェクトが炎上することをまだ知らないからなのだが。
一応、懸念事項がないわけではなくて、データセットが大量にあっても学習がうまくいかない時がそれだ。精度が思ったよりも上がらないということが起こる。そうなるとどうするか。カネがあるならアノテーションデータを増やすと言うことになって、僕もまた滅茶苦茶忙しくなる可能性が残っていた。幸いそういうことは起こらなかった。割とすんなり精度が出たっぽかった。
対話がうまくいくという判定は難しい。チューリングテストと同じで判定員による評価が主と言えるだろう。そういう意味では小規模な実験を持ってまず性能が上がったっぽいというのを確認することになる。行ったのは既存の発話における感情タグとの一致度合いの検証であった。対話生成に入力された内部状態、これは多次元のデータに過ぎないため、非階層型クラスタリングのアルゴリズムに突っ込むことで擬似的な感情タグとして扱うことができる。これによって内部状態aは喜び、内部状態bは興奮みたいな推測ができて、そういうクラスタリングされた内部状態とタグの一致度から対話がうまくいったとされるデータセットでは過半の過半の一致を見たし、むしろ、一致していないデータセットはタグ付けが間違っているという風に見受けられた。
「これこそが客観的に見た感情なのかもしれないね」と真野さんは言っていた。確かにそうかもしれない。感情のデータを集め異様としては自分の主観に基づけば、基準がまちまちなデータしか集まらないし、他人を評価しようとすれば、その感情への理解度から作者の気持ちを答えなさい程度の品質にならざるを得ない。それと比べればよっぽど納得がいく指標だろうと僕は同意できた。
AIに意識があると言ったGoogleのAIエンジニアはクビになったことを思い出す。悪いが僕はLaMDAに意識があるとは思わない立場だ。だから、今回の対話モデルも人間的な思考はしていないし、感情を認識しているとも思わない。むしろ、人間の非言語的な出力を抽象的な構造に転写できたのが価値だと感じた。故に感情という名目では論文には出ないだろうし、せいぜい感情認識を不要とした対話モデルという形式でしか発表されないだろう。
とはいえ、その構造が何を意味するかを調べる妨げにはならない。というよりも、自分のタスクが落ち着いたので、僕自身がデータを調べることに興味を持った感じだ。まずはx-meansによって分類された内部状態から眺める。14あった。既存データセットと退避させることで喜びだとか悲しみだとかはわかりやすくクラスタリングされていた。また、一つは無関心だろうというのも同意が取れた。これで一番面白かったのはメンター同士が発言の中心になっているオンラインミーティングにおいて、インターン二人の顔の表情入力が無関心と分類されたところだ。そんなことないですよ、と二人とも否定していたが、youtubeでコントを見たら喜びにクラスタリングされたので、顔だけだからというわけでなかったことがわかった(コミュニケーションロボットはカメラで表情を追って、発言権の委譲を行ったりするので、表情変化は取れているというのがわかったともいう)。ただ、そのようなわかりやすいものが半分弱であり、残りはその感情に何という単語を振ればいいのかわからないものが多かった。特に2つのクラスタリングは女性被験者しか示していない分類があって、それもなんだったかは議論になったが結論は出なかった。
カメラ映像だけでも認識が動くわけだが、逆に映像や色々なものを削るのも試した。ネットラジオとかは普通にできた。これは実際にポッドキャストをスクレイピングしたデータが入っているのと、そもそも映像でもカメラに写り込んでいない話者の情報が含まれているからというので納得がいく。当然ながらそこからさらに情報が減ったテキストデータ、まあそれは入らないので機械読み上げを行ったものは、予想通りぐだぐだな結果しかでなかった。無論、それは朗読データになればいけるので、このあたりは時系列の発声を見ているのか考えることになった。それを踏まえて英語の音声は入れたのだけど、こちらも微妙だったので、この用途を考えるのであれば、何らかのデータ追加が必要なんだろうなと思う。
その辺りが自分がザーッと調べた範囲だ。九月になって本業が忙しくなり、インターンの進捗を聞くことぐらいしかできなかった。この辺りで特筆すべきことは別の形で出ることになるだろう。書けることでは面白いことはインターンが進化していたことだ。こういうアルゴリズムは大体精度検証中にデバッグが必要になるのだけど、そうなるとデバッグで欲しいデータを作る技術が必要になる。この場合だと人間の内部状態、つまり任意の感情を出す技術を獲得しているということだ。インターンがやってみせる。三秒で泣いて、悲しみのクラスタリングと認識させたり、直後に最高の笑顔を出しつつも、憎しみのクラスタリングを狙うというのをやったりしていた。演劇漫画のタイトルを出すダメなオタクの感想を残したら、コロナ前の大学時代は演劇サークルに所属していたことがわかった。進化じゃないわ、元からやん、と突っ込むといやこんなこと昔できなかったですよ、認識のパーセンテージ見るようにしたらできるようになったんですよ、と言う。
そういう感情アドバーサリアルアタックが一人は完全にできるようになっていたのだけど、今回いた三人のインターン(一人が何をしていたのかは知らない)はみんな「無の取得」という技ができるようになっていたのが興味深かった。これはAIの出力結果が特定の感情と判断できない状態にするというもので、この状態が実質〆切に追われて集中している状態であり、この状態を人為的にできるようにすることで長時間の集中を実現するという物であった。「感覚がつかめればすぐですよ」とは言われてたが、自分は試した物のその状態を作って持続することはついにできなかった。本業が炎上していなかったらできたのかもしれないと思ったが、他の社員もできなかったので、もしかしたら年齢的な要因とかがあったのかもしれない。感情を道具にできる新世代だったのかもしれない。
後の打ち上げで確か真野さんが言っていた。感情は扁桃体由来で脳の高速な判断のために生じているものなんだよ、と。ただ、それは即時性が優先されたものであり、効率を考えれば有意ではない。よく例に挙がる、物陰から急にヘビが現れたとき、感情の作用が優先され、悲鳴を上げて逃げるというのがある。だが、それは実際には木の枝とかおもちゃだとかの見間違いの可能性があるわけで、そうでないなら適切なアラートだが、そうであれば無価値にすぎない。生死に関わる判断として感情が存在してきたが、逆説的に言えば、この惑星を支配して生死に関わらない事項が増えた生命においては扁桃体の動作を止めた方がいいのではないのか、と。確かにAIは感情を持っていない。AGIになれば感情を理解するとか言われているが、それを考えると違うのではないかと思い始める。AGIが十分にセンサーを持てば、突然の事柄は起きえないはずだ。全てが観測されるはずで全てが十分な時間考慮可能になるのだ。そのとき不可避で生じる悲劇に対して抱く気持ちを僕は感情と呼べる自信はない。
「もしかすると感情は進化の途上で獲得されたもので退化していくのかもね。海から上がってエラを失ったように、十分な知性を獲得したら感情を失っていくように」
僕は参加しなかったが、会社は夏休み明けの休日に外部の人を集めた実験を行った。以前よりは満足度が向上したらしいが、まだ明らかにおかしい対話挙動が観測されたようだ。ただ、従来よりもそれが生じる人間のペルソナは絞り込まれている。その特長を聞くと、人間の間でも感情という内部状態の違いはかなりあって、機械の方が精緻にそれを感じ取っているのだろうなと思える。今までよりも高精度なセンサーがある。ただ、それを厳密に解釈することは無駄だろう。より高精度になるからではない。今回のインターンの研究活動を見れば、割と早くに新しいアプローチに移行するのは明確だ。それに競合も大きい。pathwaysのような大規模モデルアプローチにもっとテキストを入れたり、音声や映像そのもので言語が入力をしたりが始まれば、案外、対話にもすんなりいくのではという話が入っている。対話構造を生成するのに人間の内部表現を使う今回のアプローチは早晩過去のものとなるだろう。
とはいえ、それでこの会社の仕事がなくなるわけではない。これの売り込み先はAIと喋りたいから導入するのではない。人の代わりに仕方なく導入するのだ。となれば、総合的なアプリケーションとしての価値が見いだされるのであって、部品は何でも良いわけで。
となると未来のことを考えないといけない。「来年の春休みのインターンの指導とかどう?」と僕は聞かれる。とりあえず一ヶ月毎日12時間労働は絶対に避けたい気持ちで「やらないよ」と答えた。ただ、またやるような気もしている。どうせ人間が人間を理解するほどは他の生き物が理解できていないように、AIがAIを理解するよりも人間を理解し得ないのだ。シンギュラリティが来ても、AGIができても、人間のための道具としてのAIは人間が作らざるを得ない気がしている。だから、今回のデータフォーマット、あれの開発者として謝辞にでも名前を載せてくれたら考える、と伝えた。

よし、こんだけスクロールした後ならアピールしても大丈夫やろ(そのために原文を貼った)。「本題アピール」をします。

傷の舐め合い飲み会の開催のお知らせ

キラキラしていない皆様、いかがお過ごしでしょうか。僕は酒が飲みたいです。

SF創作講座では「始発まで会場で熱く語り合う懇親会」とか「梗概を読み合う感想会」とか、そういうキラキラした参加者向けのイベントは既にいくつかあることが知られています。

しかし、梗概は選ばれないし、そもそも全然書けないしという、肥溜めに落ちてしまったような生き物のためのイベントは残念ながらありません。

執筆→無価値判定→執筆→無価値判定→……

このサイクル、本当に辛いですよね……。
まず、これを変えましょう。

執筆→無価値判定→→執筆→無価値判定→→……

これが正解です。駄作はアルコール消毒です。
でも、そういうイベント無いんですよね……。
だから、僕がやります。

はい。

梗概が全然選ばれていないのだけど、頑張りたい皆さん、新規感染者数が落ち着いたここいらで一つ飲みませんか???
希望する日程をいくつか頂ければ調整しようと思います。
人数としては6人ぐらいが上限です。人数が少なそうなら適当にグロエリのSF創作講座卒業生を召喚します。
時間帯としては十一月の講座までの土日の昼もしくは夜、場所は都内、メニューはフレンチを予定しております。
これはゴミみたいな人間しか集まらなくて、何の話も盛り上がらなくても、飯はとにかく旨かったからヨシ!!!とするためです。
良い飯を喰らい、良い酒を呷りましょう。

参加費は開催日までの創作講座の実作で獲得した累計得点で分担します。これは選ばれているのに来るならカネを払え、pay to speakという方式です。なお、僕は第一回で2点獲得したため、残りの参加者が0点の方々だった場合、僕が全部奢ることになります。そういうシステムです。

だって、そうでもしないと来ないだろ!!! 傷ついた人間はタダで飲み食いできるから来い!!!

(ただ人数少ない場合に召喚する人間は除くみたいな運用をします)

参加希望の方はこちらのツイートにご一報ください。
僕と一緒に闇を煮詰めましょう。

文字数:12247

課題提出者一覧