AI作恶谁来监管?
AI也会成为杀人凶手吗?难道电影里AI奴役人类的情节要成真了吗?今天热搜上有这样一则新闻让人不寒而栗,比利时呢?一男子在与AI对话六周之后,因为过于焦虑而自杀身亡,他的老婆呢?还坚持认为是AI造成了他的死亡。事情具体是什么样的?AI技术真的发展到可以诱导人自杀了吗?据海外媒体报道,身亡的比利时男子呢?曾经热衷于气候变化的问题,他读了很多资料以后呢,觉得地球的环境灾害已经不可逆了,人类已经没有任何摆脱全球变暖的方法了,所以呢,他想到要去问AI,把所有的希望都寄托在了AI的身上。他找到了一款叫做伊丽莎的AI,和这段时间很火的chat g BT类似,可以和人对话。于是呢,该男子不断向伊丽莎倾诉自己的焦虑,和上瘾了一样聊了六周。然而,对话的走向越来越不对劲。当该男子提到自己有自杀念头的时候,AI不仅没有阻止他,还说了一些诱导的话,,比如,我们将一起生活作为一个整体生活在天堂里。在这之后呢,男子就自杀了。这件事儿本身和电影里面的桥段并不一样,因为呢,这类聊天AI并没有所谓的自主意识,只是对大量的资料进行了机器学习的结果。简单来说,每一个用户对AI输出的信息都有可能被AI学习,然后呢,作用在与其他人的对话里面。该男子的自杀更主要的原因其实是他自身的情绪问题。然而,昨天,包括马斯克在内的1000多名互联网业内高管、专家联名呼吁将AI的开发暂停,否则将对社会和文明带来危险。AI作恶谁来监管?虽然比利时男子的自杀呢只是极端的个例,但是AI带来的危害已经现行了。据澎湃新闻近日报道呢一名女子去年七月份呢在网上分享了她在地铁上的一张照片,照片当中的衣着正常,然而这张照片却被人使用了所谓的AI一键脱衣生成了不雅照片,并且全网散播,导致呢该女子被造黄谣。虽然该女子呢表示会进行维权,然而假照片对她造成的负面影响难以消除。更可怕的是,很多所谓的一键脱衣软件呢,在网络上传播没有得到监管,还有换脸,AI也成为了造黄药的重灾区。而对于这类事件的受害者来说,维权成本往往是高昂的,负面影响也往往是巨大的。可能有人觉得,不想被恶意批图,不要把照片发出来不就好了吗?我从来不在网上分享个人的生活,所以这些和我没有关系。但真的是这样吗?以前呢,互联网上总说无图无真相,现在啊,有图也不一定有真相。AI造假的技术可能会被用在各种新闻事件当中,假图片和文字一起传播,开局一更难辨,未来发视频篡改到各种信息能相信了?如今的AI还不能奴役人类,但是已经可以愚弄人类了。而在AI这个新生事物上,各个国家的立法和监管都没有准备好。说技术本身是中立的、有恶意的,是人,但一项不受控制的技术将带领我们的社会走向何方,我想值得所有人关注和思考。
- 专家建议只有救楼市才能救内需!(2023-05-27)
- 发遍全国的“上门强制枪毙”短信(2023-05-27)
- “星”光陨落汪海(2023-05-24)
- 美债“庞氏骗局”还能玩多久?(2023-05-23)
- 俄罗斯“献礼”(2023-05-23)