研究人員通過程序控制,讓機器蟑螂也具有蟑螂的特點:喜歡躲藏到陰暗的遮蔽處和喜歡扎堆。在12只蟑螂中放進4只機器蟑螂,這個群體的表現(xiàn)和正常的蟑螂群體一樣,讓它們在一暗一亮兩個遮蔽處挑選,大多數(shù)時候它們都會躲到暗的遮蔽處去。
然后,研究人員改變程序,讓機器蟑螂喜歡較亮的遮蔽處。結果,在這幾個機器蟑螂的誤導下,出現(xiàn)了反常:在大多數(shù)時候,蟑螂群體會躲到較亮的遮蔽處去。說不定我們以后可以利用這種機器蟑螂,把房間中暗藏的蟑螂都引到明處,聚而殲之。
所以呢,民主決策雖然是個好東西,但是也很脆弱,很容易被別出心裁的異己分子所破壞。不過,如果這些異己分子出的是壞主意,會很快被自然選擇淘汰。不幸的是,在它們被淘汰時,會有一大幫盲從它們的家伙陪葬。
好人和騙子的博弈
1950年,美國數(shù)學家阿爾伯特?塔克(Albert Tucker)在斯坦福大學給心理學家做報告時,講了一個故事。警察在盜竊現(xiàn)場附近抓到了兩名疑犯阿爾和鮑勃,把他們分開審訊,并分別向他們開了條件:如果兩人都不招供(疑犯彼此“合作”),警方?jīng)]有他們盜竊的證據(jù),將以攜帶武器這一較輕的罪名將他們各判處1年監(jiān)禁;如果兩人都招供并牽連對方(疑犯彼此背叛),兩人都將被判處10年監(jiān)禁;如果有一人招供并牽連對方,而對方不招供,此人將被免予起訴,而對方將被判處最高刑期20年。
阿爾會想:“鮑勃要么招供要么不招。如果鮑勃招了,而我不招,那么我將被判20年,我招了則被判10年。如果鮑勃不招,我也不招,那么我將被判1年。但是,如果我招了,我將被免予起訴。所以,不管鮑勃招不招,我招供都是最好的選擇?!滨U勃也這么想。最終兩人因為都“理性”地選擇招供而被判了10年。但是,如果他們都“非理性”地選擇不招,則只會被判1年。
理性的選擇卻不能帶來最佳的結果,這個“囚徒困境”后來成了博弈論最著名的問題。博弈論還有一個類似的問題,也是關于合作與背叛(或欺騙)的關系,但是條件有些不同。有兩個人駕車回家,遇到暴風雪,被雪堆分別堵在了街道的兩頭。司機要么出來鏟雪清除路障,要么待在車中。如果兩個司機分別從兩頭鏟雪(“合作”),就能都把車開回家并分擔勞動付出。如果只有一個司機鏟雪,另一個司機待在車中等對方鏟完雪,他也能回家,而且還避免了勞動付出(“欺騙”)。當然,如果兩人都待在車中,沒人鏟雪,那就誰也回不了家了。在這種情況下,應該怎么選擇呢?最佳的策略是作出與對方相反的選擇:如果對方當“好人”鏟雪,我就當“騙子”坐享其成;如果對方不鏟雪,我就當“好人”自己來鏟雪。這樣雖然被人占了便宜,總比坐以待斃好。