“Fail fast” 在创业场景中是一个众所周知的短语。快速失败的精神是以最低限度的可行产品进入市场,然后迅速走向成功。fast fast承认,企业家在对真实客户和实际后果进行测试之前,不太可能设计成功的最终解决方案。这就是 “准备、开火、瞄准” 的方法。或者,如果反冲足够大,那就是 “准备,开火,枢转” 的方法。
请考虑LinkedIn首席执行官里德·霍夫曼 (Reid Hoffman) 的这句话: “如果你对产品的第一个版本不感到尴尬,那你推出的太晚了。”
与fail fast相反的是软件开发的 “瀑布” 方法,在软件与真正的客户进行测试之前,预先投入了大量的时间 -- 需求分析、设计和方案规划。
当谈到人工智能的新兴潜力时,我相信快速失败是灾难的根源。
许多不同类型的人工智能软件围绕着我们。如今,大多数人工智能的权限都很小。例如,亚马逊的软件会推荐您可能想购买的东西,但实际上并没有代表您购买这些东西。Spotify的软件决定为你创建一个播放列表,但是如果一首歌不适合你的口味,后果是良性的。Google的软件决定哪些网站与您的搜索词最相关,但不决定您将访问哪个网站。在所有这些情况下,快速失败是可以的。使用导致更多的数据,从而导致算法的改进。
但是智能软件开始做出独立的决策,这些决策代表着更高的风险。失败的风险太大,不能掉以轻心,因为后果可能是不可逆转的或无处不在的。
我们不希望NASA迅速失败。一次航天飞机的发射费用为4.5亿美元,将人类的生命置于危险之中。
想象一下: 如果我们让10000万人接触到智能软件来决定他们阅读哪些新闻,我们后来发现这些新闻可能是误导性的,甚至是假的,并导致影响美利坚合众国总统的选举,该怎么办?谁将承担责任?
这听起来有些牵强,但媒体报道表明,俄罗斯的影响力仅通过Facebook就达到了1.26亿人。赌注越来越高,我们不知道该追究谁的责任。我担心带头推动人工智能进步的公司没有意识到责任。快速失败不应该是意外结果的可接受借口。
如果你不相信,把这些场景想象成快速失败心态的副产品:
如果由于人工智能,您的全部退休储蓄在一夜之间蒸发了怎么办?这就是可能发生的情况。在不久的将来,数百万美国人将使用智能软件将数十亿美元投资于退休储蓄。该软件将决定将资金投资在哪里。当市场经历大规模调整时,就像偶尔发生的那样,该软件将需要迅速做出反应以重新分配您的资金。这可能会导致投资在几分钟内见底,你的资金就会消失。有人负责吗?如果您的朋友因人工智能而在车祸中丧生怎么办?这就是可能发生的情况。在不久的将来,数百万美国人将购买由智能软件控制的无人驾驶汽车。该软件将决定许多美国人的命运。人工智能会选择撞到不小心走进街道的行人还是将车辆驶离道路?这些是具有现实后果的瞬间决定。如果这个决定是致命的,有人有责任吗?如果您的女儿或儿子因人工智能而患有抑郁症怎么办?这就是可能发生的情况。在不久的将来,数百万的孩子将有一个人造的最好的朋友。这有点像一个看不见的朋友。它将是一个名为Siri或Alexa的伴侣,或者是其他说话和举止像知己的人。我们将把这个朋友介绍给我们的孩子,因为它将是友好,聪明和关怀的。它甚至可能取代保姆。但是,如果您的女儿或儿子将所有可自由支配的时间都花在了这个人造朋友身上,并且多年后无法在现实世界中维持有意义的关系,那么有人有责任吗?在某些情况下,后果无法撤消。
相反的论点是人类已经造成了这些悲剧。人类散布假新闻。人类在股票市场上赔钱。人类用汽车互相残杀。人类会感到沮丧。
不同的是,人类是独立的。人工智能取代或与人类智能竞争的风险在于,它可以同时大规模应用。人工智能的范围和覆盖范围既是大规模的,也是瞬时的。这从根本上带来了更高的风险。虽然一个犯了错误的司机确实是不幸的,但一个对数百万人犯了同样错误的司机应该是不可接受的。
需要一种更负责任的人工智能方法。我们的心态应该转向风险防范、安全规划和模拟测试。虽然这违背了科技行业的现代精神,但我们有责任在大多数不太可能和不想要的结果发生之前防止它们发生。好消息是,只要有正确的心态,我们就可以防止上述情况成真。
版权及免责声明:凡本网所属版权作品,转载时须获得授权并注明来源“融道网”,违者本网将保留追究其相关法律责任的权力。凡转载文章,不代表本网观点和立场。
延伸阅读
版权所有:融道网