章杉知道,姚氏百万富翁问题有很多实际应用~
这里举一个例子:假如Alice希望向Bob购买一些商品,但她愿意支付的最高金额为x元,Bob希望的最低出售价为y元,Alice和Bob希望知道x和y哪个大?
如果xy则双方可以继续讨价还价,否则就不必再浪费口舌,但他们都不想告诉对方自己的出价,以免自己在讨价还价中处于不利地位。
这个看起来像是小学应用题,但实际上同时和金融、编程和安全挂钩之后,这个问题还真不是那么容易~
然而,事实是,在1982年,姚启智教授在提出百万富翁问题后就给出了该问题的一种解决方案。
该方案用于对两个数进行比较,以确定哪一个较大。Alice知道一个整数i;Bob知道一个整数j,Alice与Bob希望知道谁的数最大,但都不想让对方知道自己的数。为简单起见,假设j与i的范围为[1,100]。Bob有一个公开密钥Eb和私有密钥Db。
(1)Alice选择一个大随机数x,并用Bob的公开密钥加密c=Eb(x);
(2)Alice计算c-i,并将结果发送给Bob:
(3)Bob计算下面的100个数:Yu=Db(c-i+u),(u=1,2,...,100)其中Db是Bob的私有解密密钥。Bob选择一个大素数p(p应该比x稍小一点,Bob不知道x,但Alice能容易地告诉他x的大小),然后计算下面的100个数:Zu=(Yumodp),。然后验证对所有的u≠v,|Zu-Zv|=2,并对所有的u验证:0
(4)Bob将以下数列和p发送给Alice:[Z1,Z2,...,Zj+1,Zj+1+1,...,Z100+1],p;就是所从第j位对Zu数列+1操作;
(5)Alice验证这个数列的第i个数是否与x模p同余。如果同余,她得出的结论是i=j;如果不同余,她得出的结论是ij;
(6)Alice把这个结论告诉Bob。
一时之间,章杉也不禁感慨万千~
感慨归感慨,怎样让姚老接着聊些学术上的事情~
没等章杉想太多,姚老话锋一转,开始询问起章杉了~
“章杉同学,我还听说你打算额外持续投资20亿美元研究人工智能,我不是有意窥探商业上的秘密,也无心于此,只是从我目前来看你想要做的显然不是想研究普通人工智能,而是致力于超级人工智能。”
“目前超级人工智能有很多制约条件……”
章杉听得很认真,姚只提了“鲁棒性”与“可解释性”两大技术瓶颈,以及未来超级人工智能的终极挑战。
章杉对人工智能关注颇多,自然明白姚教授的意思~
关于鲁棒性问题,可以解释成脆弱性、非安全性、非可靠性问题。
人工智能系统设计历来重功能性设计,轻可靠性、安全性设计;或先功能性,后安全性、可靠性。
在早期产品中这一现象尤为严重。在自动驾驭汽车领域,最终制约因素是安全性、可靠性问题,未来,无人驾驶汽车研发会因可靠性、安全性问题,成为“永在途中”的课题。
关于可解释性,可以理解成广义的开源性。
可解释性就是如何让人们深入了解人工智能系统。以汽车为例,在工业革命时代,汽车驾驶者们对汽车原理、结构一目了然;
现在,汽车对于驾驶员而言只是一个黑盒子,只有方向盘、油门、刹车这样一个应用界面。
相比而言,工业革命时代的汽车有高度的可解释性,人工智能的新兴汽车无可解释性。
同样,手机、数码相机、电视机相较于电话机、照相机、电子管电视机而言,无可解释性,对所有使用者都是黑盒子,无人去拆解、修理,去了解其内部结构,这是一种十分现实、十分先进的人工智能产品的傻瓜化应用模式,它将知识创新与创新知识应用彻底分离。
然而,对于人工智能创新领域,不可解释性是一个技术创新的巨大障碍。
硬件的透明、软件的开源,一定程度上解决了技术创新的可解释性障碍。
目前,可解释性障碍突出表现在算法领域(人工智能三大基础之一),它阻碍算法的推广、评价与市场化,算法的碎片化现象会严重阻碍人工智能的发展。
不得不说,姚是一个极有远见、对人工智能有独到见解的大家。
“姚教授,学生记得早年在水木大学的一次演讲中,你便提出了人工智能时代的“大科学”概念。
我记得您在那个时候说:人工智能时代,已进入到诸多强势科学的交叉融合发展时代,各个强势学科都会以自己的视角(自以为是地)诠释人工智能……”
姚教授真没想到章杉记得这个,他怎么会不记得的呢~
这章没有结束,请点击下一页继续阅读!
喜欢读书成神豪请大家收藏:(m.2yq.org)读书成神豪爱言情更新速度全网最快。