AI代理コミュニケーション構想
背景:問いかけの泥臭さ
『問いかけの作法』(安斎勇樹)は、チームの対話を機能させるための技術体系を示している。「見立てる→組み立てる→投げかける→アフターフォロー」という工程を踏み、レトリックを駆使し、非言語を読み取り、心理的安全性を確保する。これだけの「作法」が必要になる根本原因は、人間は情報を素直に出せない生き物だからである。
- 自己開示ができない
- 遠慮する、空気を読む
- 「生煮えの意見」を出すのが怖い
- 関係性が固定化し、逸脱が抑止される
情報を出すことに限定するなら、さっさと出せばいい。人間がやるにはソフトスキルとして難しすぎるので、AIに代理させた方がいいのではないか。
基本構想:代理戦争モデル
コミュニケーションをAIで代理させる。遠慮も非言語も休憩も不要で、とことん議論と対話をさせる。
全体フロー
- 入口:各自がAIに本音を渡す(人間×AI)
- 中核:AI同士が代理で対話する(AI×AI)
- 出口:対話結果を各自がAIフィルターを通して受け取る(AI×人間)
- 判断:人間が合意案を承認 or 差し戻す
各工程の詳細
1. 入口:AIへの自己開示
- 人間に直接言うよりハードルは低い
- やり直しがきく
- ただしハードルはゼロにはならない(自己開示の一種)
- 割り切るか鍛えるかしかない
- 新たなハードル:情報が記録として残り続けること(元々文字起こしやチャットを嫌う人もいる)
2. 中核:AI同士の代理対話
- 遠慮なく論点をぶつけ、掘り下げ、整理する
- 合意案の提示まで踏み込む(デフォルト)
- 権限設計はカスタマイズ可能(合意案まで出すか、論点整理で止めるか等)
- 『問いかけの作法』でいう「見立てる→組み立てる→投げかける→アフターフォロー」の全工程をAIが代行
3. 出口:対話結果の受け取り
- 各自がAIでフィルター・翻訳・要約して受け取る
- 原典ログ(オリジナル)は必ず保持する(都合の悪い部分が隠されるのを防ぐ)
- 「これはあくまでAIが出したものです」という注記で心理的抵抗感を下げる
- 「AIが言ったこと」というバッファの効果:人間から直接言われるより受け止めやすい。責任の所在が曖昧になることが、ここではむしろ利点になる
差し戻しの設計
AI対話の合意案に納得できない場合のルール。
基本パス
AI対話結果を踏まえて、人間同士が話し合う。
オプション:AI対話の再実行
- AI対話は何度でも回せる
- ただし条件がある:
- 回したい人が追加の見解(コンテキスト)を自分で書いて入れる
- 回し終えた後の「対話結果2」をその人がチームに説明する責任を負う
- このコスト設計がブレーキになり、「都合のいい結果が出るまでガチャを回す」悪用を防ぐ
- 何度も回す人は「自分がそこまでこだわっている」ということ自体をチームに示すことになる
このモデルが効く場面
向いている場面:
情報の非対称性が問題なのに、人間的な摩擦で情報が出せない場面。チーム内の本音の優先順位、言いにくい懸念、実は賛成していない点など。
向かない場面:
共感や承認そのものが目的の場面。
まとめ:人間に残るもの
| 工程 |
担当 |
| AIへの自己開示 |
人間(ハードルは低いが残る) |
| 対話・論点整理・合意案提示 |
AI |
| 結果のフィルタリング |
AI(原典は保持) |
| 合意案の承認/差し戻し判断 |
人間 |
| 差し戻し時の追加コンテキスト提供・説明 |
人間 |
『問いかけの作法』が人間のスキルとして体系化した技術体系を、AIに移管する。人間には自己開示と最終判断と説明責任だけが残る。