数字的人吗?

2022年1月07

机器人会有感情,我们可以伤害吗?我们应该让他们为自己的行为负责吗?或只是一种让人类摆脱困境?

本周,我们问“机器人是人吗?“这是第三和最后一集,人类和机器,慷慨赞助的斯坦福大学研究所的以人为中心的人工智能(海)。

在回答这个问题之前机器人是否会成为人,甚至我们可能要问为什么想要他们人在第一时间。不是机器人没有很多重要的用处是伟大的在工厂组装汽车,外科医生,在精密工具之类的——但他们可以做所有这些工作没有个性或情感。

当然,人工智能是变得越来越聪明和复杂的。当前机器人已经可以决定不需要人工输入,他们可以自主探索和学习环境。他们可以执行知识我们曾经认为不可能的任务:识别图片,与我们持有复杂的对话,和击败最好的人类棋手。

但这并不是说他们就像我们在任何重要的意义。当然,他们可以模仿我们和我们的行动,但最终,他们只是聪明的机器。我们有信念和欲望,我们感到疼痛,我们可以为我们的选择受到惩罚。这些适用于机器人。你不能伤害到他们的感情或阻挠他们的欲望没有。

这些都是我们现在的机器人。或许未来的机器人会更喜欢我们。也许有一天科学家会与真实的感觉和情绪,建立机器人不仅仅是模仿的。是否,甚至可能还是科幻的东西,似乎是一个坏主意。想象你未来的家政机器人开始讨厌自己的工作,拒绝做任何清洁,和而不是决定看电视一整天!这将击败整个首先拥有一个机器人。

更严重的是,如果我们有意识的机器,机器人制造的感觉和情绪,然后我们会建设可能遭受可怕的东西,这似乎是道德上的错误。有些人可能认为这比生孩子没有什么不同,那就是,毕竟,还创建一个有意识的痛苦。然而,儿童和机器人之间的巨大差异是机器人产品由我们使用。很好建立产品,好让新朋友,但不应该一个人,一个产品。治疗一个人就像一个产品是残忍、不人道、不公平的。

除了痛苦的问题,创造产品,一个人的法律或道德地位意味着不得不让他们为自己的行为负责。我们将如何做呢?带走他们的屏幕时间吗?寄给他们的集装箱超时?

我想这些我们想象未来的机器人将有他们自己的信仰和欲望,所以,如果我们想要惩罚他们的罪行,那么我们将不得不带走他们想要的东西。但是设计产品实际欲望和可能那些欲望frustrated-seems像一个危险的提议。如果他们的欲望最终涉及奴役人类?

考虑到人工智能和机器人技术迅速发展,我们需要仔细思考这些问题。如果创建一个机器人的感觉和情绪是一个坏主意,我们如何确保它永远不会发生?我们在哪里画之间的界限非常复杂的工件和一个真正的人吗?和治疗产品,如人的危害是什么?

本周我们的客人是乔安娜·布赖森,伦理和技术教授在柏林Hertie管理学校。除了她的研究在智能人机交互,和人工智能的伦理,乔安娜咨询欧盟立法者如何调节数字技术和保护人们免受有害的人工智能。

加入我们的将是一场有趣的谈话!

通过Comfreak Pixabay形象

评论(4)


哈罗德·g·纽曼的照片

哈罗德·g·纽曼

星期五,2022年1月14日——3:52点

我喜欢猜测。所以,

我喜欢猜测。因此,考虑到打开上面的问题,我提供以下对应。如果我们在AI,寻找感觉,至少说明我们有考虑机器人是否能/会/应该感受。因此它可能需要一些意识,对我们来说,这种感觉可能会受到伤害。这意味着我们会进一步他们感觉就像我们的痛苦。在问责制的问题,在我看来,作为AA的创造者(人工问责),我们就没有手指一点,或者使用旧的零售商的警告:“你打破它,你买它”。试图使用一个创造让自己摆脱困境,因为你的同事可能会说,荒唐。我想,这里丰富的伦理和道德问题。但是创建(s)将不会创建它们。

我已经阅读并同意遵守社会准则
蒂姆•史密斯的照片

蒂姆•史密斯

2022年1月15日,星期六,上午11:30

一些非常奇怪的

最近发生了一些非常奇怪的机器学习。不仅有技术专家能够模拟模式识别和许多认知过程,但是工程师们已经生成的代码可以解决问题没有太多的了解那里的代码。科学家可以检查答案,但程序员不能确定的逻辑或如果原因是礼物。

如果一个人不能确定为什么发生了一件事,我不确定我们应该属性问责的人或组织,创建一些的前兆。应该落在做出这一决定的算法,即使相同的算法不能告诉我们为什么选择。到目前为止跟踪源算法一直是具有挑战性的,但有希望在区块链与创新节目。归因是主要的区块链——不是cryptocurrency——毕竟回报。

与欧盟或乔安娜·布莱森的观点,在某种程度上(可能已经发生),谷歌或微软或任何政府不负责决定由他们的机器人或人工智能(如果类似的实体——两种截然不同的一个点在显示评论。)

没有人工智能应该允许访问的决定,除非在该算法首先展示优势。但这不是我们的问题。我们早就委托决定机器的专家级的代码来处理情况比人类。你只要把你的脚放在刹车踏板或打开你的手机。智能代码的问题是不能被理解的追溯,在实时,或者散布恐慌情绪,作者建议,在未来。未来的残骸是强大的。

AI的承诺,它可以偿还方式,要实现这一目标的最可靠途径是把它作为一个成年人。它将负责对其他人的影响,它将不得不改善别人的生活。

人们让他们的路径,错误,和生活。也许我的孩子们将支付我回来,也许不是。他们将我父母错误的伤痕。在我们的代码不会留下疤痕的帮助。对待每一批的时候机器学习代码,每个量子退火炉,每个阿达玛的机器代码是一个法律和经济的人/实体与利润和福利为所有生物除了人之外,项目,和企业创造了他们。我不同意欧盟试图跟踪责任公司实体——我完全支持数字人格的特殊地位。技术足够成熟来产生利润和回报而不用担心人类的伤疤和缺陷。

有这样的事情是一个数字的人吗?你和我永远不会满足,我是一个数字的人。我们是残疾的的生物。生活,生活,看看我们的作品可以让我们的形象和他们的能力。

我已经阅读并同意遵守社会准则
哈罗德·g·纽曼的照片

哈罗德·g·纽曼

周日,2022年3月20日——落地

有一个邀请来完成

有一个邀请来完成一个详细的调查伦理,可以应用于“意识”的救援机器人;医疗机器人等。这是一个项目的一部分在卡尔富勒顿。一个有趣的思想实验,建立在电车难题等等。我欣赏的猜测几乎一样多的知识。正如许多这样的军演,推定地没有正确或错误的答案场景。然而,作为一个实际问题,有选择比其他人更正确,从实用主义者的观点。答案是是的,不,或许,所以,取决于一个人的水平的人类,和/或其他因素,调查将产生不同的结果。我希望研究人员,希望这项调查是有用的。

我已经阅读并同意遵守社会准则
哈罗德·g·纽曼的照片

哈罗德·g·纽曼

星期四,2022年8月18日——17点

好吧,我们在这里——8月

好吧,我们在这里——2022年8月. .争议和讨论人工智能肆虐。创造一个新的,索菲亚和苏菲这取决于拼写是正确的,是公开实际上还活着。其实活着意味着什么还不清楚。机器人没有心跳和呼吸,我已经能够确定。我们经历了破产——成本的λ折磨和活跃的思想家之一工作。生活在博客世界。我的血液亲戚有一个妻子叫索菲娅,现在他们有一个女婴的孩子。都活得好好的。新条款在哲学和其他领域。 The latest is curious: authoritarian populism. I do not know what it means yet, but am searching. If it occurs to you that authoritarianism and populism may not fit well together, I think you would be right. Somehow, someone believes authoritarian populism is OK. Maybe so. There is a MULLET competition coming up too...

我已经阅读并同意遵守社会准则