想法:多重人格,AI 夸夸, TAI

AI 夸夸器

最近突然火起来了一坨夸夸群😳。那么,是不是可以省去人工的烦恼,用 AI 做一个赞美富婆夸夸生成器。

除了夸人,还可以拓展一下,让其兼职诗词鉴赏呀、图片和镜头赏析赏析等等。

每个人格各自爱上一个不同的人

有没有如下设定的小说、电影、动画之类的:女主或者男主是多重人格,而每个人格都喜欢(爱)一个不同的人……大概可以写不同的人格间相互竞争甚至泯灭其他人格,又或者达成和解与一致?

TAI构想

  • Rule-based plus neutral network based learning and acting

  • Allow an AI itself to add new rules.

  • The rule could be somehow sorted or clustered by tags, which allows it to efficiently apply (calculate with) only relaxant rules.

  • rules have weight. set a threshold, rules whose calculation results (impact) exceeds the threshold take effect (contribute to the final action)

  • update rules and weight of rules after decision and learning.

  • why not genetic algorithms?
    (If we wish an AI) to be like a human, the AI must have physical bodies and sensors like human (from a fiction.)

  • AI may create their new languages when studying human languages. Perhaps I need to learn how to talk with them.

  • 在对方可能不熟悉的語彙中,以超連結明示背景資訊。

聊天机器人需要有自己的人格。才能回答很多问题。也是一致性吧。

以下摘自《艾比斯之梦》

人類擁有的各種本能也被建模、載入核心,諸如想要保護自己不受到傷害的欲望(自我保存本能)、想要打勝仗的欲望(戰鬥本能)、想要理解無法理解的事(求知欲)、想要保護幼小的欲望(母性本能、父性本能)等。不過,無法給予種族維持本能。人們認為假如AI受到想留下自己的子孫這種欲望驅使,無限制地複製自己的話,事情會一發不可收拾。

最麻煩的是該不該將性慾載入核心這個爭論。身為開發者的雷龍伯格和野中一開始認為,性慾是讓AI理解「愛」所不可或缺的。因為「想要抱緊心愛的人」這個想法,顯然和性慾密不可分。但是那麼一來,必然要給機器人性別,這意謂著必須在機體植入生殖器官。他們的研究一成為話題,網路上立刻充斥「擺動金屬陽具的機器人」的想像圖和下流的玩笑話,受到基督教基本教義派團體和女權團體的強烈抨擊。兩人對這場騷動感到厭煩,最後決定不載入性慾。

但相對地,給予了核心虛擬的性別,載入「想看異性的機體」、「想接近異性的機體」、「想討異性喜歡」等欲望。雷龍伯格他們解釋這些本能是為了填補被刪除的性慾。愛是一種想要守護對方、待在對方身旁,帶給對方幸福的感情,未必需要性關係。

如此一來,產生了「那不是眞正的愛」這種反駁,但是雷龍伯格他們希望避免陷入「眞正的愛是什麼」這個麻煩的爭論,極力主張AI的感情不必和人類的完全一樣。植入核心的機器人會像人類一樣反應,但機器人是否眞的擁有和人類一樣的感情,則是一個無法判定的問題。因此,「擁有和人類一模一樣的感情的機器人」這個目標是個幻想(我無法斷定自己的虛擬機體快被破壞時感到的不快,是否和人類感覺到的『可怕』一樣。我只能沒把握地推測,大概是因為人類在這種情況下會感到『可怕』,所以我也稱這種感覺為『可怕』。我無法提取人類的感情,和AI的感情作比較)。

本能的參數能夠以初期設定改變。一旦本能太強,機器人就會發生框架問題而不能動彈。舉例來說,如果自我保存本能太強,機器人就會害怕微不足道的危險,而無法採取任何行動。當然,本能太弱就不會到達技術突破的階段。許多研究者經過一再的實驗,結果發現AI要到達技術突破的階段,不可或缺的是自我保存本能,其他本能不怎麼强也無所謂。

擁有推論引擎的TAI,也是理想的翻譯軟體。不會像二十世紀的翻譯軟體一樣,把「She issafe」譯成「她是保險櫃」,或者把「put money in thebank」譯成「把錢放在河堤裡」。因為我知道女人不是保險櫃,而錢不是放在河堤裡。