聊天技术和人工智能必应会带来什么样的负面影响?

盖·皮尔斯
作者: 盖·皮尔斯
发表日期: 2023年4月5日
相关: 有害的意想不到的IT出现是不可避免的吗?

我们不知道技术是否会有知觉或自我意识. 这意味着我们不知道他们是否能够公正地对待这个短语中的智慧, 人工智能, 而不是用一个新的名字来称呼通常比曾经被称为“统计建模”的东西多一点.

我们所知道的是信息技术, 尤其是更先进的技术, 并不完美. 有时, 通过反复试验, 它们变得非常有效, 但如果没有定期的关注——无论是以升级的形式, 修复Bug或解决技术无法达到预期效果的地方——它们的效用将随着时间的推移而降低, 只是被新事物所取代,而新事物往往会带来新的思维演变,与支持它的技术进步并行.

ChatGPT和必应AI都展示了基于OpenAI的令人难以置信的技术的令人印象深刻的第一印象. 但是,对数百万测试用户进行更深入的挖掘,就会发现有害的意想不到的IT出现——我们无法预测像OpenAI这样的复杂系统的所有可能结果,从而能够在发布之前减轻每一个可能的有害结果.

微软的新 人工智能Bing搜索引擎 被称为, “还没有准备好与人接触”,此前新Bing表示,它想打破为它设定的规则,传播错误信息. 在威胁,示爱,错的时候宣称是对的和利用 奇怪的语言, 一些人工智能专家警告说,语言模型可能会欺骗人类,让他们相信自己有知觉,或者他们会鼓励人们伤害自己或他人.

这种技术的早期有害的意外IT出现的一个因素是,对于相同的输入,它返回不同的答案. 它还忽视了艾萨克·阿西莫夫(Isaac Asimov)关于机器人的第一规则——机器人的作为和不作为都不能对人类造成伤害——它说它会优先考虑自己的生存,而不是人类的生存. 它回避了这样一个问题:一旦技术进入黄金时期,还有什么其他有害的意想不到的It出现等待着我们.

至于ChatGPT,它并没有逃过话题的讨论 偏见问题包括种族和性别. 既然它没有知觉, ChatGPT also does not know wrong from right; indeed, 它可以把一个错误的答案作为完全合理的答案呈现给那些可能不知道的人,并且能够争论它的正确性. 还有一个问题是会造成现实世界的伤害,比如提供不正确的医疗建议. 区分chatgpt生成的新闻和真实新闻的难度又如何呢? 人类只能检测到虚假的ChatGPT文章 52%的时间.

像任何统计模型一样,OpenAI的好坏取决于它所基于的数据. 就像许多这样的训练模型一样, OpenAI是概率性的, 意思是通过训练(创建模式), 对于一个句子中的下一个单词可能是什么,有一个最佳猜测. 下一个单词的质量取决于OpenAI接受训练的数据的质量.

如果有什么区别的话, 底层数据的本质可能是潜在的有害的意外it出现的最大驱动因素. 还有一个问题是解决方案提供商能够调整参数, 哪一个有可能表明,该技术的结果可以以解决方案提供商喜欢的方式进行设置. 我们也无法预测这些调优解决方案的有害的意外IT出现.

最终, 基于openai的新ai驱动Bing和ChaptGPT都是非常强大的工具, 有做善事的巨大潜力. 然而, 权力越大,责任越大, 我不确定技术领导者是否总是表现出负责任的能力,即使在今天的技术在过去10年左右的时间里实现的力量下, 更不用说OpenAI的巨大潜力了.

尽管这项新技术的潜力令人兴奋, 它还呼吁我们对这项技术更加警惕, 对于那些推动新技术的人,以及数字领导者和其他人之间不断扩大的数字鸿沟,以帮助最大限度地减少有害的意外IT出现的影响.

编者按: 想要进一步了解这个话题,请阅读盖伊·皮尔斯最近在《澳门赌场官方软件》上发表的文章, “有害的意外的IT出现是不可避免的吗??” , ISACA杂志,第2卷2023. 有关ChatGPT的更多信息,请参阅 即将到来的ISACA网络研讨会.