快捷搜索:  汽车  科技

天行智能rpa产品(AI音箱爆卖的背后)

天行智能rpa产品(AI音箱爆卖的背后)看到这小编表示不想继续举例子了,人工智能的节操已碎了一地,给大家带来欢笑不假,但是,是不是要开始警惕?当你家小孩突然嘴里冒出一堆脏话的时候,你会不会很疑惑哪里学来的?第一次看真的惊呆了,人工智能已经这么拽了么?1、“Siri 神回复,不要随意调戏siri姐,笑翻全场。人工智能碉堡了”视频中的语音助手被调戏烦了,直接破口大骂,实在不雅就不引用原话了。骂出来的结果是引来全场大笑,人工智能很会取悦用户哈!2、“小爱同学太精了,坏事都让天猫精灵干”视频中,用户让小爱同学放个屁,小爱不乐意就用语音命令天猫精灵做,然后天猫精灵竟然没有拒绝!3、“小爱同学和天猫精灵在一起就完美呈现了智能和智障的差距了”视频中更离谱,第一段是用户对音箱说“老资吃火锅,你吃火锅底料”,然后音箱回复“老资坐火车,你坐火车轨道;老资娶天线,你娶天线宝宝;老资吹空调,你吹空调外机;老资吃西瓜,你吃西瓜皮皮;老资吃泡面,你吃调味料

今天看到一则新闻,据IT之家3月8日消息,在过去几天中不少用户反映他们的支持Alexa助手的音箱会无故发出令人毛骨悚然的笑声,厂商回应称正试图解决该问题。

天行智能rpa产品(AI音箱爆卖的背后)(1)

各种科技产品出现各种漏洞早已不足为奇,及时补上一般不会出现大问题,然而如今越来越多的人工智能产品进入大家的日常生活,漏洞的影响似乎在潜移默化的放大。

假设一个场景,夜深人静的晚上,智能音箱突然发出“女巫”般的邪恶笑声,刚好用户患有心脏病和高血压,因此病发,可能会导致严重的后果!

由此小编终于理解马斯克对于人工智能的担忧不无道理,也许大家会说这只是一个特例,不足为证,那我们可以联想一下我们在抖音和今日头条短视频里看到的智能音箱以及语音助手的各种“搞笑”表现:

1、“Siri 神回复,不要随意调戏siri姐,笑翻全场。人工智能碉堡了”视频中的语音助手被调戏烦了,直接破口大骂,实在不雅就不引用原话了。骂出来的结果是引来全场大笑,人工智能很会取悦用户哈!

2、“小爱同学太精了,坏事都让天猫精灵干”视频中,用户让小爱同学放个屁,小爱不乐意就用语音命令天猫精灵做,然后天猫精灵竟然没有拒绝!

3、“小爱同学和天猫精灵在一起就完美呈现了智能和智障的差距了”视频中更离谱,第一段是用户对音箱说“老资吃火锅,你吃火锅底料”,然后音箱回复“老资坐火车,你坐火车轨道;老资娶天线,你娶天线宝宝;老资吹空调,你吹空调外机;老资吃西瓜,你吃西瓜皮皮;老资吃泡面,你吃调味料包;老资……”。第二段是用户问“床怎么叫”,后面的内容不忍直视……

第一次看真的惊呆了,人工智能已经这么拽了么?

看到这小编表示不想继续举例子了,人工智能的节操已碎了一地,给大家带来欢笑不假,但是,是不是要开始警惕?当你家小孩突然嘴里冒出一堆脏话的时候,你会不会很疑惑哪里学来的?

此时小编想起机器人三原则:

机器人三原则是1940年由科幻作家阿西莫夫所提出的为保护人类的对机器人做出的规定。

第一条:机器人不得伤害人类,或看到人类受到伤害而袖手旁观。

第二条:机器人必须服从人类的命令,除非这条命令与第一条相矛盾。

第三条:机器人必须保护自己,除非这种保护与以上两条相矛盾。

三原则诞生以来不断被科幻作家以及电影导演引用,但是但凡引用必然出现机器人违反的桥段,只因机器人对人类定义不明确或者被黑客更改人类定义,三原则的弊端由此显现,之后又有人对此进行了补充。

第四条:不论何种情形。人类为地球所居住的会说话、会行走、会摆动四肢的类人体。

第五条:接受的命令仅只能接受合理合法的指令。不接受伤害人类及各类破坏人类体系的命令。如杀人、放火、抢劫、组建机器人部队等。

第六条:不接受罪犯(不论是机器人罪犯还是人类罪犯)指令。罪犯企图使机器人强行接受。可以执行自卫或协助警方逮捕。

科幻文学和科幻电影中尚且对机器人提出了行为准则,那我们现在的各种语音助手智能音箱等AI产品是否也该遵循统一的行为准则?曾有言论称人工智能短期不会颠覆人类,但至少我们曾努力将其收入阿拉丁神灯。

资料搜集自网络,仅供参考,如有错误欢迎指正!


天行包原创文章,今日头条独家发布,未经许可不得转载。

猜您喜欢: