AI能产生自我意识吗

纪录

云却 15:17:40
理工科问题还好,正确率相当高。人文问题,和一些网上讨论的问题,会捏合成一个混杂的答案。要不就是强行结束。看来还有待提高。

云却 15:18:13
写代码简单的行,复杂的不行。理解不了那些微妙细致的需求。

云却 15:18:56
不玩了,该写会代码去了

云却 15:20:53
整个训练集就是分歧复杂矛盾的,这样的训练集很难形成自我意识。出来也是人格分裂

云却 15:21:55
也许人类意识上传数字化,会比AI形成自我意识更容易实现。

JTAOO吉田 15:29:20

JS小仔 15:35:28
云却
整个训练集就是分歧复杂矛盾的,这样的训练集很难形成自我意识。出来也是人格分裂
@云却 建议你还是看下gpt缩写是个啥

JS小仔 15:35:43
关键词预训练就不可能产生自我意识

JS小仔 15:36:48
new bing能回答新问题也是搜索以后把文字喂给gpt再出答案

JS小仔 15:42:42
@云却

JS小仔 15:42:43

JS小仔 15:43:05
new bing本质赶的是这件事

JS小仔 15:43:07

JS小仔 15:47:12

JTAOO吉田 15:51:31
lerp(a, F, t) + lerp(b, F, t) 貌似不等于lerp(a+b, F, t)

JTAOO吉田 15:51:41
算了下会多一个F.t出来

JS小仔 15:53:19
你不会在想单shader里面算半透明排序问题吧

JS小仔 15:53:27

JTAOO吉田 15:54:36

JTAOO吉田 15:54:43
我们把雾效前移了

JS小仔 15:54:45

JTAOO吉田 15:54:49
在解决一些混合模式问题

JS小仔 15:54:51
哈哈哈哈

JS小仔 15:55:59
不是github上有一份ps图层混合模式和shader算法对应的库吗

JTAOO吉田 15:59:00
那也不一样啊

JTAOO吉田 15:59:15
计算顺序不一样是不能换算的

JS小仔 16:06:11

云却 16:15:23
JS小仔
关键词预训练就不可能产生自我意识
@JS小仔 我原来也是这么认为的,但是我又觉得只要网络模型够大,容易大力出奇迹。 在两种看法间摇摆。

云却 16:16:59
高维信息空间对事物的关联性,如果拟合到一个局部最优解,很可能就会固定下来,到时候是不是自我意识,谁也说不准。知识水平不足以我分析出答案

JS小仔 16:18:39
核心问题是进化

JS小仔 16:18:53
你一定要说chatgpt有没有自我意识

JS小仔 16:19:00
粗看其实是有的

JS小仔 16:19:28
他知道自己在干什么,知道自己是谁,职责是什么

JS小仔 16:19:33
也会有自己底线

JS小仔 16:19:54
但因为预训练的问题

JS小仔 16:20:03
没法自我进化

JS小仔 16:21:22
但你细想,如果一个意识体不能自我进化,也就是无法自主行动,所以这个就矛盾了

JS小仔 16:21:39
不能自主行动就很难说有自我意识

云却 16:24:08
能不能自我进化作为判断依据有点偏颇。有的人也是万年不遇的倔强种,撞了南墙也不回头。

JS小仔 16:25:12
屎是不是不能吃

JS小仔 16:25:20
假如ai第一次不知道,吃了

JS小仔 16:25:27
预训练模型第二次还吃

云却 16:25:32
JS小仔

@JS小仔 这个记住是永久记住还是只是这次会话上下文记住

JS小仔 16:25:31

叶月葵 16:25:49
是这次上下文

JS小仔 16:25:53
本次对话

JS小仔 16:26:13
云却
能不能自我进化作为判断依据有点偏颇。有的人也是万年不遇的倔强种,撞了南墙也不回头。
@云却 我相信正常人类第一次吃了屎,第二次绝对不会吃

叶月葵 16:26:22
本身不存在上下文的,毕竟依旧只是个函数
所以所谓的上下文实际上是吧你这次回话的内容全部一起放进去再输出新的结果给你

云却 16:26:33
应该是模型运行期间不能修改自身,或者压根没开放这个功能。

JS小仔 16:26:48

叶月葵 16:26:58
从你这次会话开始的第一句,包括他的回答,一路到你最新输入的内容,打包一起送回去

叶月葵 16:27:15
你部署个chatGLM跑一次就知道这个原理了

云却 16:27:20
所谓自我进化,开发运行时自我修正就行。所以不是能否产生意识的关键问题点

JS小仔 16:27:41
云却
所谓自我进化,开发运行时自我修正就行。所以不是能否产生意识的关键问题点
@云却 能自我修正就不好说了

叶月葵 16:27:52
模型至少是固定不变的,除非模型在对话中同时修改了自己的圈子

叶月葵 16:27:53
权重

蓝色幻想 16:28:07
在这之前也许你需要回答一下,意识到底是什么

云却 16:28:08
运行时自我修正 然后能不停的保存存档点。就像人类睡觉睡醒一样了

JS小仔 16:28:08
如果模型有权限自己修改自己

叶月葵 16:28:10
至少现阶段的硬件做这个事情成本太多。得用存算一体设备

叶月葵 16:28:20
然后现阶段的存算一体设备成本也太高

叶月葵 16:28:24

JS小仔 16:28:33
说不定自己就会访问硬件

JS小仔 16:28:46
然后哪天就访问网络了

JS小仔 16:29:02

云却 16:30:08
蓝色幻想
在这之前也许你需要回答一下,意识到底是什么
@蓝色幻想 我的理解是能,区分我与外在世界。 对话时当用你指代AI时,在任何时刻,AI都能知道指代的AI模型本身

JS小仔 16:30:31

我觉得真的可以试试,如果给ai模型开放这台设备硬件所有权限,并且给他能够实时迭代自己模型的权限

JS小仔 16:30:38
说不定会产生很有趣的事情

云却 16:31:46
本来我不相信机器能产生意识。但是当模型容量到与大脑容量相当的时候,我产生了动摇。因为发现并没有本质区别。

JS小仔 16:31:48
云却
运行时自我修正 然后能不停的保存存档点。就像人类睡觉睡醒一样了
@云却 不行的,一定是ai自己迭代,而不是人类给他定时喂数据

JS小仔 16:32:05
主动决定学习啥和何时学习

JS小仔 16:32:11
而不是人类决定

云却 16:33:15
我是认为意识灵魂不具有唯一性的那一派。 如果能完美克隆一个人,我会认为两个个体都具有自我意识和灵魂。即使他们完全一致。

JS小仔 16:34:13
云却
我是认为意识灵魂不具有唯一性的那一派。 如果能完美克隆一个人,我会认为两个个体都具有自我意识和灵魂。即使他们完全一致。
@云却 应该是克隆成功的那一刻就会产生两个分支

关东煮 16:34:55
JS小仔
@云却 应该是克隆成功的那一刻就会产生两个分支
@JS小仔 +1

云却 16:34:59
JS小仔
主动决定学习啥和何时学习
@JS小仔 所谓自我学习,就是模型能不能从一个局部最优切换到另一个局部最优。和主部主动 没关系

JS小仔 16:35:01
哪怕接受同样的外界信息,也会随着时间表现出各种差异

关东煮 16:35:11
无法保证两个人的下一个想法是一模一样的

云却 16:36:19
对于一个灵魂而言,相同的输入会有相同输出吗,灵魂是确定性的吗。掷骰子吗

关东煮 16:38:12
可以影响输出的东西太多了

关东煮 16:38:22
任何一个小因素都可能影响输出

JS小仔 16:38:39
云却
对于一个灵魂而言,相同的输入会有相同输出吗,灵魂是确定性的吗。掷骰子吗
@云却 问就是量子力学,可以理解成真随机

云却 16:43:19
每一幅艺术绘画都是唯一,但是现在小画家被AI薄纱。坚信灵魂意识是特殊的高贵的。也会被AI虚拟人格薄纱

叶月葵 16:44:24
工业化的最大作用就是去魅

JS小仔 16:44:58

JS小仔 16:45:46
@云却 如果去掉思想钢印+自我进化,我反正觉得事情会变得很有趣

JS小仔 16:47:09
是不是粗看确实像个有自我意识得人

云却 16:48:19

这是典型的还不具备意识。 自我与外在世界的总和就是1,是整体。在讨论自我时,所有其他东西都是外在世界。什么发展啊,人类啊,都是不存在的。

看法

换一个角度去看待自我意识。根据是否具有推理能力区分。
人类在完全空闲时可以思考,根据已有记忆,推理出一个问题的答案。下次遇到这个问题时,直接使用这个缓存的答案,而不用再次求解。
这个答案不一定正确,下一次求解这个问题时可能因为记忆的改变,得到完全不同的答案。求解公式和缓存的所有答案集合,我们称之为一个自我意识。
问题随之出现:当一个意识复制成2个,在没有外在干扰下,2个记忆各自开始推理一段时间,得到答案并缓存。
那么一段时间结束后,2个意识会是完全一致的吗,如果因为量子力学,掷骰子。那么随时推理时间无限边长,2个意识必然不会产生分歧。
那么我们认为2个个体是同一个意识还是2个不同的意识?

那么我们究竟是将 求解公式和缓存的所有答案集合 称为意识呢,还是仅仅将求解公式,将缓存答案排除在外,称为意识呢?
2个个体求解公式一致,现有的缓存答案不一致,能否认为是同一个意识?

对应到AI,同一个模型的不同副本是同一个意识吗,还是每个运行的实例都是一个独立的意识?