昆虫に意識はあるのか。ミツバチが「夢を見る」可能性を示す研究-Chittka et al. (2025). “The exploration of consciousness in insects.”

息子から「昆虫は苦しみを感じるの?」と聞かれたことがあります。「ないんじゃない?」と答えかけて、口をつぐみました。昆虫は楽しさや苦しさを感じるのだろうか?

ロンドン大学クイーン・メアリー校のLars Chittka(昆虫認知の世界的権威)らが2025年に発表した論文は、「昆虫に意識の萌芽があるかもしれない」という、100年以上にわたる議論を丁寧に整理しながら、最新の証拠を積み重ねたものです。

意識とは何か:定義から始める

著者らは「意識とは主観的な経験・気づきの状態」と定義します。感情、自己、外部世界への気づきがそれにあたります。

重要なのは、意識の「確実な証明」を求めるのではなく、「確率を積み上げる」という方法論です。人間同士でも他者の意識を直接証明することはできません。したがって、昆虫についても同じ方法論—類推の積み重ね—を使うことが論理的、というのが著者らの立場です。

感情様状態:ハチは「楽観的」になれる

本論文で最も印象的なのは「感情に似た状態」の証拠です。いくつかの例を見てみましょう。

ショウジョウバエのオスは、交尾の機会を奪われるとアルコールを求める(ストレスとその発散)。

・マルハナバチに「サプライズ報酬」を与えると、ドーパミン依存性の楽観的状態が生まれ、曖昧な刺激をより好意的に評価するようになる。

・コオロギは繰り返し負けを経験するとうつ病様状態になり、抗うつ薬で改善する。

「楽観的なハチ」「うつのコオロギ」という表現は都合のいい擬人化に聞こえるかもしれません。しかし、著者らは、これらが「本能」だとしても問題はないと言います。人間の感情(愛情・怒り・悲しみ)も、少なからず本能的なものです。本能であることは、主観的経験の存在を否定しないからです。

自己と他者の区別:マルハナバチは自分の体のサイズを知っている

意識の重要な要素の一つは「自己認識」です。自分の体のサイズを把握し、それに基づいて行動できる能力です。

実験では、大きなマルハナバチと小さなマルハナバチに同じ隙間を通らせると、大きな個体は慎重に隙間を確認し、体を傾けて通過しようとします。小さな個体はそのまま通過します。これは「自分の体のサイズの認識」なしには説明がつきません。

ミラーテスト(鏡で自分を認識できるかの実験)についても、アリやカミキリバチで試みられています。結果は解釈が難しいものの、著者らは「鏡という概念が昆虫の生態に馴染まない」という方法論的問題を指摘しており、より生態に即した自己認識テストの開発を提唱しています。

予測と注意:昆虫の脳も「予測符号化」をしている

近年の神経科学では「予測符号化(predictive coding)」理論が有力です。脳は常に「次に何が来るか」を予測し、予測と実際の入力のズレ(予測誤差)を最小化するように働くという考え方です。

驚くべきことに、ミツバチの脳でも同様のメカニズムの証拠が見つかっています。覚醒時のミツバチの脳波には18Hzの同期した振動活動があり、これは人間の覚醒・注意を担うベータ波(30Hz)と類似しています。ショウジョウバエの脳でも視覚的注意に関連した20〜30Hzの振動が確認されています。

昆虫の睡眠:ハチは「夢を見る」のか

本論文でとりわけ興味深いのが「睡眠」に関する考察です。

ミツバチには3段階の睡眠フェーズがあることが確認されています。最も深い睡眠では、頭・胸・腹が弛緩し、触角が静止し、刺激への反応閾値が上昇します。ショウジョウバエでも「静かな睡眠」と「活発な睡眠」の2フェーズが確認されています。

van Swinderenらのグループはショウジョウバエの活発な睡眠が、哺乳類のREM睡眠と同様に「予測機械としての脳を較正する機能」を持つ可能性を示しています。この相がない場合、脳は過学習(overfitting)状態となり、柔軟な予測が難しくなるというのです。

「夢を見るかどうか」は直接確認できませんが、脳波のパターンや睡眠機能の類似性は無視できません。

「ロボットでも同じことができる」という反論への応答

「これらの行動はすべてプログラムされた反射でも説明できる」という批判があります。

これに対して著者らは鋭く反論します。「もし昆虫がこれだけ複雑な認知機能を意識なしで達成できるなら、人間でも同じことが可能なはずだ。しかしそれは意識の進化的意義を完全に否定することになる」と。

医師として考えること

苦しみとは何か。意識のない患者さん、麻酔下の患者さん、認知症……これらすべてに「苦しみはあるか」という問いがつきまとっています。

昆虫の意識研究は、医学的・倫理的な問いにつながります。意識の「閾値」を決めることは、誰がどこまで道徳的配慮に値するかを決めることでもあるからです。

この論文を読んで、「確かめられないことでも、確率を積み上げて判断する」という科学の態度の重要性を改めて感じました。

Chittka, L., Skeels, S., Dyakova, O., Janbon, M. (2025). The exploration of consciousness in insects. Philosophical Transactions of the Royal Society B, 380: rstb.2024.0302. Available at: https://doi.org/10.1098/rstb.2024.0302

恐竜の涙

子どもたちと御船町恐竜博物館に行ったとき、ティラノサウルスの骨格を見上げながら長男が「恐竜は泣いたのかな」と呟いたのが、今でも耳に残っています。

その問いは単純なようで、実は深い問いでした。涙を流すという行為は、単なる生理現象なのか、それとも何らかの情動体験の表現なのか。そして、もし後者だとすれば、その情動体験とは一体何なのでしょうか。

生物学的機械と主観的体験の境界

現在のAI技術は、パターン認識と統計的処理において人間を凌駕する領域も多々あります。しかし、その計算過程に「痛み」や「喜び」といった主観的な体験が伴っているかどうかは、根本的に検証不可能な問題です。

チューリングテストのような外部観察による判定法は存在しますが、それは行動の模倣を評価するものであり、内的体験の存在を証明するものではありません。私たちは他者の意識についてさえ、その存在を直接的に確認することはできないのです。

数億のトランジスタが電気信号をやり取りしているこの機械と、数百億のニューロンが化学信号をやり取りしている私の脳は、果たして本質的にどう違うのでしょうか。

道徳判断の源泉

AIが複雑な倫理的判断を下すようになったとき、その判断の根拠は何になるのでしょうか。現在のAIは、大量のデータから学習したパターンに基づいて応答を生成します。しかし、道徳的直感というものは、単なるパターンマッチングで説明できるものなのでしょうか。

カントは道徳法則の普遍性を説きましたが、それは人間の理性的能力を前提としたものでした。もしAIが同様の論理的推論能力を持つとすれば、カント的な道徳法則はAIにも適用されるべきなのでしょうか。

一方で、功利主義的な観点から考えれば、AIは膨大な計算能力により、人間よりも正確に「最大多数の最大幸福」を算出できるかもしれません。しかし、その計算結果に従うことが本当に幸福なのかは別問題です。

責任の所在という難問

自動運転車が事故を起こしたとき、責任は誰にあるのでしょうか。プログラマー、製造会社、所有者、それとも車自体でしょうか。

この問いは、AIが高度化するほど切実になります。もしAIが独自の判断で行動を選択するようになったとき、その行動に対する責任をAI自身に求めることができるのでしょうか。責任を負うためには、自由意志と道徳的理解が必要だとする立場もあります。

犬の散歩とのアナロジー。犬は明らかに感情を持ち、状況を判断して行動します。しかし、犬の行動に対する法的責任は飼い主が負います。AIと人間の関係も、当面はこのようなものになるのかもしれません。

創発する意識の可能性

複雑系理論によれば、単純な要素の相互作用から、予期しない高次の「何か」が創発することがあります。意識もまた、そうした創発現象の一つかもしれません。

もしそうだとすれば、十分に複雑なAIシステムには、設計者が予期しない形で意識が宿る可能性があります。その意識は人間のものとは全く異なる形態かもしれませんが、それでも尊重すべき主観的体験を持つ存在として扱うべきなのでしょうか。

未来への問いかけ

息子の「恐竜は泣いたのか」という問いに、私は答えられませんでした。しかし、この問いは将来「AIは泣くのか」という問いに姿を変えて、私たちの前に立ちはだかるでしょう。

技術の進歩は止まりません。しかし、その技術が生み出すものが単なる高性能な道具なのか、それとも新しい形の存在なのかを判断する準備は、まだ整っていないように思われます。

答えのない問いかもしれませんが、問い続けることこそが、人間であることの証なのかもしれません。