人工智能的投资逻辑范例6篇

前言:中文期刊网精心挑选了人工智能的投资逻辑范文供你参考和学习,希望我们的参考范文能激发你的文章创作灵感,欢迎阅读。

人工智能的投资逻辑

人工智能的投资逻辑范文1

那未来是不是基金经理和交易员就没有用武之地了,大量人工智能的运用将改变股市的交易模式和策略。我觉得,人工智能作为一种投资方法和途径,的确可以投资股市,并且获得一种风险和收益相对可预期的模式。但是人工智能的“股市狗”不可能百战百胜,甚至有可能导致某个公司倾家荡产。

人工智能首先我想起了长期资本(LTCM)的故事。套利之父、债券之王、诺贝尔奖获得者一群精英的梦幻组合,于1994年创立了美国长期资本管理公司,主要活跃于国际债券和外汇市场,利用私人客户的巨额投资和金融机构的大量贷款,专门从事金融市场炒作。它与量子基金、老虎基金、欧米伽基金一起被称为国际四大对冲基金,一度取得骄人业绩。它以“不同市场证券间不合理价差生灭自然性”为基础,制定了“通过电脑精密计算,发现不正常市场价格差,资金杠杆放大,入市图利”的投资策略。最后因为俄罗斯金融风暴、公债违约导致公司几乎濒临破产。有人分析,它的问题出在历史数据统计的模型不能代替未来方向。实际上,我觉得,从更高层面来说,这是一种对社会现象能否进行数理分析的根本哲学问题。

社会现象能否用公式去穷尽各种因子,从而成功推测出未来的方向?简单说,遵循数理逻辑的人认为可以,而认为社会现象中的研究者无法做到数理现象的纯粹观测者来研究,因此无法得到答案。德州扑克非常像股市二级市场,不同位置、不同对手风格、不同筹码量都会导致同样牌面不同的决策。另外,运气成分占很大比重。

人工智能的投资逻辑范文2

目前,人工智能的发展阶段呈现以下三个特点:

第一,人工智能在特定约束条件下已具备超越人脑某个方面的能力,但综合来看仅仅相当于蠕虫的智能水平。近期,谷歌研发的人工智能AlphaGo围棋程序在与世界围棋九段李世石的对局中以4:1取胜。AlphaGo采用更为优化的深度学习神经网络,在规则已知和逻辑可控的棋类竞技中实现了对人类的超越。IBM的沃森机器人能够在几秒之内筛选数十年癌症治疗史中的100多万份患者病例记录,为医生提供可供选择的循证治疗方案。但无论是AlphaGo还是沃森都需要由人类预先进行知识分类和设计上的干预,并且“智能”的高低很大程度上取决于所学习先验样本的数量和准确性。因此,通用意义上的人工智能依然是一个漫长而复杂的过程,目前能够做到的更多是特定场景下人类某项大脑能力的延伸和对人类思维决策进行辅助。

第二,人工智能发展可分为不同层次,目前部分技术分支在行业中的应用已取得突破。人工智能发展层次可分为感知智能(语音、图像识别,自然语义理解,机器翻译,机器搜索等),认知智能(神经元芯片、深度学习算法、行为规划等)和自主智能(机器推理、决策和联想等)。感知智能方面,国外的谷歌、IBM、脸书、微软和国内的百度、科大讯飞等在语音和图像识别、机器翻译、大数据搜索等细分技术领域推出了一批有显著创新性的技术产品。认知智能方面,对神经元芯片、深度学习算法的开发主要集中在IBM、高通、谷歌为首的国际巨头以及美国“类人脑芯片”(SyNAPSE)、欧洲“欧脑项目”纳入的高校和科研机构中。由IBM主导的SyNAPSE项目预计在2016年内能够完成100亿神经元规模的计算机原型,但距离通用型、成熟型产品问世尚需较长时日。

第三,我国应积极应对人工智能发展新浪潮,以产学研用协同创新打造国际竞争新优势。近年来,美欧等国家在人工智能领域不断加大投入,开展专利布局,以技术和应用为纽带构筑产业生态。我国在人工视觉、语音语义识别等细分产业领域并不落后,但从全局来看,在人工智能基础理论、核心算法和产品成熟度、产业投资和人才队伍储备等方面与国外对比还存在明显差距。国外大企业重点攻关认知智能和自主智能,我国企业目前多集中在感知智能的低级阶段。

当前阶段,人工智能技术产业化发展应当从以下四个方面着手改进:

一是加强人工智能核心技术研发和产业化。制定人工智能产业技术发展路线图,在客观分析、科学研判的基础上,找准产业未来发展的薄弱点和赶超点。加大资金投入力度,重点突破自然语音语义识别、机器学习、智能搜索等关键技术,完善核心芯片、显示器件、智能传感器、开发工具与集成环境等产业链配套。

二是有效推进人工智能行业应用示范。加快人工智能技术在家居、汽车、无人系统、安防等领域的推广应用,提升生产生活的智能化服务水平。支持在制造、教育、环境、交通、商业、健康医疗、网络安全、社会治理等重要领域开展人工智能应用试点示范。

人工智能的投资逻辑范文3

当我们谈论人工智能(Artificial Intelligence,AI)时,很大程度上受到源自20世纪想象的影响,例如,直接把人工智能和机器人联系起来,甚至是人形机器人。这可能也会影响法律人对人工智能的想象,包括是否承认人工智能作为具有自我意识的法律主体地位(或至少是人类行为的人),从而保护其特定权利(言论自由、著作权)、划定责任(缔约、侵权),甚至强调可能的毁灭性风险。这种想象远非受到科幻作品影响那样简单,深层次中还反映出人工智能在技术和应用上不同的发展路径:早期人工智能研究更集中于对人脑的仿真模拟,探究意识、理性等更为宏大的哲学问题,但应用性较少;当下的人工智能走出了实验室,借助互联网服务直接影响到普通人的生活,在技术上并不执着于创造一个完美的智能体,而是依靠算法(如机器学习和神经网络)不断优化,对海量数据自动挖掘与预测,通过无所不在的传感器实时更新数据,动态掌控着人类社会各个方面的运转,并把从某个特定领域升级为通用人工智能作槟勘辍4诱飧鲆庖迳纤担人工智能并不神秘,它出现在日常生活中,不仅是工业社会生产自动化的延续,也是互联网商业化的必然结果和新阶段。时至今日,欧美国家纷纷出台政策,推动人工智能发展,力求提升经济效率和竞争力。 互联网公司正逐渐主导实体经济和金融生产

如果我们摆脱简单的拟人思维,把人工智能看作互联网智能演进的新阶段,为理解其法律规则,就有必要理解互联网法律在过去20年中形成的路径和推动力,从而探讨人工智能是否有任何特殊性以至于需要新的规则。本文将从网络法的两个视角――实证性和生产性――切入,将它们延伸至人工智能语境下分别讨论。“实证性”视角是我们观察和应用任何规则的惯常思维方式,例如人工智能行为的具体规则如何确立、如何规制等,本文将讨论支撑人工智能的两个构成性要素――算法与数据――可能带来的法律问题,以及法律人处理人工智能的两种路径;“生产性”视角则深入规则背后,探索规则形成的政治经济因素,特别是经济生产方式的内在要求。人工智能本质上是一套复杂的代码设计,既是影响社会行为的强力规范,也是产生新价值的生产机制;它驱动整个社会朝向更智能的方向变化,从而要求法律做出相应调整,尤其是确认新型经济利益的合法性。

限于篇幅,本文姑且将人工智能看成法律上的客体,暂不讨论赛博格(cyborg)之类的人体转向机械体或通过基因技术改变身体的问题(仍是法律上的人),也不讨论人工智能作为一种人造物的自我意识问题(一个难以达成共识的哲学问题)。

理解网络法的变迁

网络法在中国的变迁大致遵循两类逻辑:外生性的政治/监管逻辑和内生性的商业逻辑。政治/监管逻辑体现为对“实证性规则”的追求,这些规则集中在国家(包括法院和监管机构)如何对互联网的内容和行为进行规制,包括对网络和信息安全的追寻。这集中反映了国家权力如何试图介入新技术带来的问题与挑战。这一视角最早由美国法学界引出,特别是Lawrence Lessig的代码理论将代码(架构)和法律并列。由此,所谓的网络法不仅要约束社会主体在网络空间中的行为,也要对架构的变化本身做出回应。

首先,就规制主体行为而言,出现了是否按照传统线下行为规则的思路约束线上行为的讨论。这一讨论的核心是,互联网问题是否具有任何特殊性,需要某些新规来解决。我们已经看到,中国的互联网行为监管在很大程度上延续了传统规则和管理方式,采取渐进的方式,这不仅成本较小,也给予监管者一定的学习和探索空间。其次,就架构变化本身而言,国家在宏观上主张网络空间中仍然需要,不能成为法外之地,在微观上相应出现了国家与平台权力/责任二分的讨论。例如,政府权力何时需要介入平台治理,加强平台的行政管理责任或安全保障责任,还是由后者根据自身情况自我规制,实现治理目标。政治/监管逻辑要么遵循管理者的路径依赖效应,要么坚持既有社会稳定、意识形态安全价值。问题在于,监管者在多大程度上能够认识到代码及其商业模式的特殊性,从而使监管行为和行业特性相互协调融合。

另一种看待规则产生的方式遵循商业逻辑。这种生产性视角关注微观权力运作,综合将代码、法律与社会规范放在一起,不单纯从社会学意义上观察社会主体行为如何受到影响,而是在政治经济学意义上将网络空间的生成和扩散看成是一个由商业力量推动主导的生产性过程,关注价值由谁产生、如何分配,由此推动对新规则的内生需求。按照这一视角,无论是法律还是架构,在具有实证性规制功能的同时,也是一种“生产性规则”。互联网的生产模式决定了其对社会范围内生产资料的创造性生产和再利用,需要法律确认其生产方式的合法性,重塑关键法律制度,并解决和传统生产模式的利益冲突。这一视角无疑帮助厘清新经济主张的例外特性,不仅展示出架构和相应的法律改变,更指明了背后的政治经济原因,是更好地理解实证性规则的基础。

两类不同的逻辑在过去20年中交替出现,相互制约,共同塑造了中国网络法体系,也推动了中国互联网的整体发展。总体而言,鉴于国家有意促进新经济,需要推动传统的属地化、分口治理,事后运动治理模式发生转变,认清互联网商业模式和价值产生的根源,有利探索适应新经济性质的管理体制。从这个意义上说,信息资本主义不断要求对法律内核进行改造,取代其中的传统经济要素,打破限制生产要素自由流通的各类规则。

人工智能法律的实证性视角

如前所述,人工智能的本质在于算法和数据处理,物理形体不必然是人工智能的构成要素,因为即使是人形机器人,也不过是一个算法主导的硬件系统,它实时收集信息,并按照算法的要求做出决定,继而行动。更重要的是,具有物理形体的人工智能可以推动群体智能发展,通过分布式终端收集更多数据加以处理,并不断传输至云端“大脑”,提升整体网络的智能水平。 人工智能巳深度介入医疗领域

根据算法的复杂性和学习/运算能力对强人工智能和弱人工智能进行区分,这在技术认知上没有问题,但在法律上很难按照智能程度给出精确的标准。法律应对复杂世界的方式是确立一般性的简单规则,在概念上对社会个体进行抽象假定(如行为能力),而非针对特殊主体,否则规则体系本身将变得异常复杂,难于理解和操作。而人工智能从单一的自动化服务向多元通用服务转变的过程可能是一个相当长的光谱,法律需要针对其本质特征进行约束,并探索一套应对未来的方案。当我们说社会变得越来越智能的时候,事实上指由于数据搜集、储存和处理的能力不断增强,所有软件/算法都可能朝向自动收集数据,做出决定或判断的趋势,由于算法的复杂性,算法带来的结果可能无法预测,并在更大范围内带来系统性的不利后果。这种后果未必是毁灭性的风险,甚至只是在某领域的制度设计问题,但人工智能恰好将这类社会问题具象化,掩藏在外表华丽、高效、更多是私人控制的“黑箱”中,就会引发一系列问题。

如果放在一个更大范围内观察,在历史上,人类社会随着复杂性的增加,不可避免地产生以组织和技术形态出现的各类“黑箱”,它们的决定影响着社会发展和大众福利,但仍然保持着某种秘密性。这一隐喻未必是阴谋论,其核心问题在于信息不对称。为平衡相关当事人和社会大众的知情权、避免恐慌、保持某种预测能力,人们不断设计出某种程度的信息公开和透明化机制,例如政治辩论的公开化,法院诉讼程序透明化甚至公开庭审,上市公司强制信息披露等等。而人工智能不过是信息技术时代的新型黑箱,带来更加严重的系统化影响。互联网在兴起过程中,通过降低信息成本,推动了开放政府、庭审直播,使信息公开透明更加便利,将生产性资源不断解放出来,在更大社会范围内重新配置,产生新价值。然而,这一过程在消除一个又一个传统黑箱的同时,产生了更为复杂的新黑箱,进而主导整个社会的生产过程。生产资料之间的信息变得越来越对称,甚至可以实时互通信息,但作为信息匹配中介的人工智能却变得更不透明,其规则设计和运作从属于用户甚至开发者无法理解的秘密状态,这回到了法律如何处理与代码的关系问题。

一个类似的比较是人类自身:人脑经过上百万年的进化,演变成十分复杂精致的系统。尽管当代神经科学不断改变我们对人脑的认知,甚至每个人的大脑都不完全一样,但就法律而言意义不大,这只能在边际上改变个案判决。即使无从了解人脑的运转机制,或者依据某种更加先进的科学知识解释社会主体行动的具体理由,人类还是有能力形成社会规范,并演进成更加理性化的规则。这套规则只需要假定一般社会主体是(受限)理性的,由少数概念界定不同情形的心理状态(故意、过失),并集中对人的外在行为进行约束,确定权利与义务,就足以以简单规则应对(而非认识)这一纷繁复杂的世界。类似地,在处理算法的负外部性时,也可以有两种不同的路径:(1)关注算法的外部行为与后果,(2)关注算法内部的设计规则。

大部分现有规则关注算法导致的(未意料)结果,例如内容分发算法未经审查造成非法或侵权内容传播,这一般由信息传播者(即内容服务商)承担责任,算法本身并无法律地位,在造成不利后果的过程中只是一个工具。这类责任假定内容服务商应当知道非法内容的存在,并有能力通过算法设计或人力(比如人工审查)加以阻止。在诸多侵权场合,内容服务商可以通过“避风港”规则免责,只要无法证明它实际知晓状态。更复杂的是,如果软件开发者声称自己无法控制信息的生产和传播,却造成一定社会危害的情形。无论是在快播案还是BT案中,软件开发者都无法因这一原因而逃脱责任,法院的理由仍然是,开发者有能力知晓非法内容的输出(如果不是故意的话,例如快播向推广该播放器)。类似地,如果一个具有物理形体的人工智能由于处理信息不当造成了外在损害,按照这一逻辑仍应由算法开发者负责。

而且,还有必要将算法产生的错误和算法缺陷本身区分开。长期以来,软件行业一直通过拆封合同(shrink-wrap)解决缺陷软件造成的短时崩溃或重启问题,这种格式条款旨在确认这样一种事实:没有任何软件是百分之百完美的,只要在用户拆封使用该软件时运行正常即可,服务商并不为软件崩溃或死机造成的消费者损失负责,因为前者无法预料到缺陷带来的风险。这就是为什么消费者需要接受软件生产商不停的更新和补丁,软件/应用不受产品责任的约束,被视为一种可以不断升级改进的服务,这在免费软件时代更是如此。按照这一思路,似乎有理由认为,无人驾驶汽车因算法计算错误导致车祸(何况造成事故的概率远远小于人类司机的错误)是这类软件的正常的缺陷,消费者应当容忍这类错误。但无论是监管者还是潜在的受害人都无法接受这种比拟。声称有潜在缺陷的交通工具(也包括医疗设备和其他与生命财产直接相关的算法)一旦投入使用就需要为此造成的后果负责。无论如何,这类思路仍然是通过后果施加事后责任,监管者或法院并不想深入算法内部了解造成事故的技术原因是什么。只要法律认定这一黑箱应当在合理范围内得到控制,事故可以避免,黑箱提供者就应当承担责任。在这种情况下,保险(甚至是强制险)就成为确保这类发生概率小但潜在损失巨大的不二选择,航空、医疗保险市场十分发达,可以预见将会延伸至更多由人工智能驱动的服务行业。 现实与虚拟的界限不断模糊化

如果说事后救济还无法确保安全,事前干预算法设计则是另一种选择,同时带来的问题也更复杂。早在20世纪,阿西莫夫就试图为机器人立法,尽管他从未讨论技术上的可行性。安全可能是人工智能服务的首要问题之一:一个中心化的入侵可能会导致所有终端都变得极度不安全。行业监管者在不同行业为特定服务中的人工智能设定安全标准(如医疗器械、交通工具、自动化武器),实行安全保护等级制度,甚至要求被认定为重要设施的源代码(如windows系统)供监管者备案,或在设计自动化交易程序时控制报单频率的阈值等。又例如,在魏则西事件后,联合调查组在整改意见中要求落实以信誉度为主要权重的排名算法,对商业推广信息逐条加注醒目标识,予以风险提示。如果说这些监管手段针对的是作为商业秘密的私人算法,诸如Open人工智能这样的倡议则意在延续开源软件运动路径,确保软件漏洞能够得到更大范围内的监督和修补。至少在中国,信息披露机制尚未成为算法监管的重要手段,无论是强制性披露还是第三方披露。

(作者单位:上海财经大学法学院)

注释:

[1]当下的大众媒体、文化产品和社会公共认知正努力将未来的人工智能塑造成具有独立意识的逐渐演化的主体,这集中体现在诸如《终结者》《我,机器人》《西部世界》《2001银河漫游》这类科幻影视作品中。尽管人们也有理由进一步想象,一旦人工智能具有了自我意识,就不再可能忠实地为人类服务,而更可能对人类生存构成威胁。其路径和思维方式仍是20世纪的,和21世纪依托大数据机器学习迥然不同。事实上,按照日本学者森政弘提出的“恐怖谷理论”,人工智能不太可能在短时间内人形普及化,因为这会在消费者心理上引发不安甚至恐惧。像Siri和Cornata这样的语音助手、像Tay和小冰这样的聊天机器人则不会有这种负面效果,因为用户知道自己在和一个尚未通过图灵测试的算法对话,他们甚至乐于教Tay在推特上辱骂用户、发表种族主义和煽动性的政治言论。另一个可能影响中文世界读者想象的因素是,把robot翻译成“机器人”先验地赋予了这类客体某种拟人化主体地位,而人形机器人(android)却没有引起更多的关注。

[2]John Weaver, Robots are People Too: How Siri, Google Car, and Artificial Intelligence Will Force Us to Change Our Laws ,Praeger Publishers Inc, 2013; Ugo Pagallo, The Laws of Robots: Crimes, Contracts, and Torts ,Springer, 2015.一个更加有用的综合文集是Ryan Calo, A. Michael Froomkin and Ian Kerr (ed.), Robot Law ,Edward Elgar Publishing, 2016。Ryan Calo的研究将具有物理形体的机器人作为法律的对象,特别区分了信息性和物理性效果,见Ryan Calo, “Robotics and the Lessons of Cyberlaw”, Calif. L. Rev., Vol.103(2015).一个不同观点,见Jack Balkin, “The Path of Robotics Law”, Calif. L. Rev., No.6(2015),Circuit 45.把机器人视为人在法律上也有相当的历史,见Samir Chopra and Laurence F. White, A Legal Theory for Autonomous Artificial Agents ,The University of Michigan Press, 2011; Ryan Calo, “Robots in American Law”, University of Washington School of Law Research Paper, No. 2016-04.

[3]吴军:《智能时代》,中信出版社2016年版。

[4]例如阿西莫夫的机器人系列小说中,无一例外地设定机器人拥有一个“正子脑”(positronic br人工智能 n),但却没有给出任何解释。见阿西莫夫:《机器人短篇全集》,江苏文艺出版社2014年版。

[5]这被称为终极算法(master algorithm),见佩德罗・多明戈斯:《终极算法:机器学习和人工智能如何重塑世界》,中信出版社2016年版。

[6]尼古拉斯・卡尔:《玻璃笼子:自动化时代和我们的未来》,中信出版社2015年版。在互联网发展的每一个阶段都有某种意识形态化的术语或热词吸引投资,例如宽带、大数据、分享经济、VR(虚拟现实)等,它们不过是互联网形态的各类变种。例如,一个关于分享经济和之前互联网经济的关联,参见胡凌:《分享经济的法律规制》,载《文化纵横》2015年第4期。

[7]这种思维方式可追溯到霍布斯以来的法律实证主义。

[8]胡凌:《代码、著作权保护与公共资源池》,载《腾云》2016年12月刊。

[9]关于两类逻辑的具体表现,集中参见胡凌:《探寻网络法的政治经济起源》,上海财经大学出版社2016年版。

[10]这在众多(特别是国外的)中国互联网观察者身上十分常见,人们的注意力全都转向中国政府如何严格管理和控制互联网。在政治学研究中自然而然地并入“国家与市民社会”传统框架,并吸纳了关于在线抗争、集体行动的传播学与社会学研究。

[11]劳伦斯・莱斯格:《代码2.0》,清华大学出版社2008年版。

[12]一个概述,见胡凌:《马的法律与网络法》,载张平主编:《网络法律评论》2010年第11卷。

[13]胡凌:《非法兴起:理解中国互联网演进的一个框架》,d《文化纵横》2016年第5期。这体现在版权、隐私、财产、不正当竞争、垄断、劳动法等一系列制度中。这种对法律制度的改变不单纯是在既有工业生产背景下微型创新带来的变化,而是社会生产的重塑。

[14]比如说,平台责任议题的出现,和互联网平台更多转向由第三方提供服务的信息中介模式直接相关。

[15]这一区分和观察中国式资本主义兴起的框架十分类似,政治经济学家们争论的焦点就在于如何解释中国改革开放三十年的成功经验,究竟是政府主导还是市场主导,但实质上是一个混合制经济。

[16]由于科斯所说的企业信息成本和管理成本降低,调动生产要素的边际成本趋近于零,企业组织形态本身将成为竞争的高成本。

[17]尼克・波斯特洛姆:《超级智能:路线图、危险性与应对策略》,中信出版社2015年版。

[18]古代的政治过程、现代的企业决策都是黑箱,对外人而言如果不是神秘,也是除魅之后的国家/商业秘密。卡夫卡的小说《审判》就精确描述了作为黑箱的诉讼过程,同一时代的韦伯也描述了理性化的国家机器应当像自动售货机一样。

[19]Frank Pasquale:《黑箱社:掌控信息和金钱的数据法则》,中信出版社2015年版。

[20]帕伯斯:《差错:软件错误的致命影响》,人民邮电出版社2012年版。

[21]长久以来民用航空器已经由软件深度介入驾驶过程,以至于人类驾驶员无法在短时间内预热,形成另一种风险。

[22]阿西莫夫提出的“机器人三定律”(后来扩展至四点)虽然十分基础,但仍然很难在具体情况下起作用,特别是当代伦理学上著名的“线车难题”之类的伦理困境。考虑到这些定律是为模拟人脑状态下设计的,就更可疑;因为人脑并不总是按某些理性伦理原则行事的,在某些关键场合强烈依靠某些默认设置――直觉。

[23]由监管机构强制披露并审查事实做不到,只能依靠像苹果这样的平台公司和软件分发平台帮助对成千上万个软件进行至少是安全审查。在台式机时代,这一平台责任几乎不可能,自然状态下的windows只能导致争夺私人控制权的3Q大战。但像乌云网这样的第三方白帽黑客也被禁止探测和公开互联网公司的漏洞。

[24]同注11。

[25]在笔者看来,法院应当将注意力放在知情同意的合同条款本身的适当性上,而不是一味接受黑箱的逻辑,因为后者确实无懈可击。如果格式合同能准确反映代码的设计,对其条款的审查是更好的选择。百度引发的被遗忘权第一案反映的也是这个问题。

[26]一个补救方法还是尽可能地披露算法信息,允许用户理性地生产/隐瞒个人信息,见戴昕:《自愿披露隐私的规制》,载苏力主编:《法律和社会科学》第15卷第1辑,法律出版社2016年版。

[27]法律的人工智能化是本文另一个没有讨论的问题,与此相关的是大规模监控、智能警务、犯罪预测等问题。

人工智能的投资逻辑范文4

在智能投顾这个词被国内大量引用之前,投顾在中国特指券商营业部中的证券投资顾问。不同于国外,国内智能投顾的发展方向走出了3种分支:第一,高频荐股帮助客户追求阿尔法收益;第二,以海外资产配置为主;第三,以人民币投资为主,同时服务持牌金融机构客户。

其中,以股票收益为代表的阿尔法收益并不适合大众投资者。其原因是,虽然获得短期阿尔法收益相对容易,但想要长期、持续地获得阿尔法收益难度相当大。理论上说,90%的投资收益来源于正确的资产配置,通过择时、择股获取投资收益的占比不超过10%。而在中国这种半有效的市场,择时、择股所起的效果不超过20%。

笔者认为,国内智能投顾的发展将慢慢与国外比肩,通过大类资产配置替代人工投顾服务。同时,我们更愿意将国内的智能投顾称为数字化资产配置。

不仅仅是人工智能

1952年,经济学家哈里・马科维茨提出投资组合理论,但直至1990年才他获得诺贝尔奖,期间很多年并没有人去验证这个理论。举例来说,假设我们有10类资产,如股票、黄金、现金、债券等,在当前市场状况下,把钱均匀地配置到10类资产中有多少种可能?如果要精确到小数点后两位,答案是1036种。

金融市场是实时变化的,下一秒和这一秒可能千差万别,每小时都会有新的数据进入。由此看出,在计算机的计算能力发展起来之前,资产配置这件事很难实现。

下图展示了典型的数字化资产配置过程。不同的投资者,其适合的资产配置组合各不相同。智能投顾会实时计算每类资产的波动、收益,根据投资者的风险承受能力进行必要的实时动态调整。它帮助投资者避免由行为偏差造成的投资决策失误,保证投资者的组合永远处于最优的状态。

在AlphaGo战胜李世石之后,人工智能忽然火了起来。一些所谓的智能投顾引入了所谓的人工智能概念,似乎可以准确预测市场。对此,笔者持怀疑态度。AlphaGo采用的技术叫作深度学习,深度学习不等于人工智能,是人工智能的分支。

人工智能是一个很火的词,但在金融领域,如果用错了会造成很大问题。金融很多时候需要的不是精确的预测,而是一个模糊的证据。特别是在资产配置的过程中,需要的是方向性的判断,而不是局部最优解;需要的是一个全局解,即使这个解是模糊的。

另外,要防止过度拟合问题,因为机器学习计入的数据太多。但是由于机器缺乏因果关系的判断,往往会把两个数据出现的一致性判断成一种有因果系的必然性。比如,“招商证券一开策略会,A股就下跌”。这虽然是个段子,但机器却会当真,极有可能在招商证券下次开会时,触发卖出指令。

因此,在现阶段,机器学习智能投顾只能作为辅助手段,仍要采用多模型的方式。除了支持向量机(SVM)这种模型,还要利用传统的数据统计方法,包括事件训练模型、回归模型等,才能谨慎地为用户制订出一份经过检验的资产配置方案。

针对4类目标定制资产配置方案

通常,客户的财务目标分为4类:对预期收益的追求、对风险的承受能力、对投资时间长短的需求、投资到期后的分红。无论用户的投资需求是买房还是养老,都可以被这4类需求所包含。智能投顾就是希望在这4个方面,为客户提供定制化解决方案。

每个客户除了投资需求外,还有在不同阶段的保障需求。比如,是刚有了孩子还是希望生二胎?是处于刚买了房子在还房贷还是短期内有住房升级的目标?是处于事业的上升期还是平稳期? 郑毓栋,璇玑科技CEO,曾任渣打银行投资策略及咨询总监,花旗银行商务客户市场及产品总监,逾10年跨国银行财富管理与私人银行经验

对客户需求的深度了解,并不是一套投资问卷或风险偏好测试就能解决的。所以,我们希望数字化资产配置服务提供商通过跟财富管理机构的合作,并建立更多客户的数据维度来解决这个问题。最终,整个行业的终极目标将是提供“千人千面”定制化的方案。

一方面,要基于用户的情况和需求,去做出合理的投资组合配比。例如,用户近期有刚性资金需求,智能投顾就需要自动降低用户的风险等级,并提前提醒用户准备提现使用资金等。此外,也可能是按照客户的财务目标,制订1份几年期的理财规划和组合,帮助客户达成目标。

另一方面,要在了解用户的基础上,提供最优投资方案。简单来说就是,如果能以10%的风险获取10%的预期收益,就不该让用户承受多余的额外风险。在这方面,机器显然计算得比人好,而且能够实时地监控市场,计算风险收益比。如之前所说,优化模型算法是一个永无止境的过程,也是判断智能投顾的标准之一。

结语

人工智能的投资逻辑范文5

关键词:人工智能;风险保障;风险分析;对策

2016年,弱人工智能程序Alpha Go战胜了围棋大师李世石一事在世界范围内产生了巨大反响,人工智能概念在全球范围内瞬即成为热点头条,人们开始关注并期待着人工智能可能带给世界及生活的贡献与改变。赞许之余,仍需指出,虽然从目前来看人工智能的发展对于威胁人类尚有很大距离,但随着大量资本投入到人工智能产业中,人工智能产业驶向了发展的快车道。加速进步的人工智能会对人类社会产生极大的不确定性,新技术的产生会使现有风险不断异化,产生新的风险规律,一些稳定的逻辑会逐渐被替代,整个世界的打开方式会变得大不一样。

新事物的产生伴随着旧事物的灭亡,如同阿里巴巴的出现引起了实体店的倒闭与转型,人工智能的发展将会取代人类更多的工作。当下,一方面不能因为人工智能的不稳定因素就对其放弃开发与使用,但另一方面则需对如下理念获得清醒认知,即:无法控制的人工智能定会给人类社会带来危害。为此,将需要展开系统研究,从而准确把握人工智能所带来的风险,创新风险管理模式,采取有效的风险防控措施,并将风险防范意识从研发创造的源头一直渗透到使用过程中,就需要世界各国与国际组织的大力扶持与人工智能专家们的不断努力。

1人工智能产业发展现状

据Venture Scanner的调查报告,截至2016年11月,全球范围内总计1 485家与人工智能技术有关公司的融资总额达到了89亿美元。与任何一个行业相比,89亿美元的融资量都显得微不足道,但同比2016年年初的48亿美元的融资总额,人工智能a业已然大获丰收。伴随着我国BAT等科技巨头积极规划的战略布局的成功推出,国内人工智能产业发展同样十分迅速,及时了解行业现状尤为重要。本小节将在如下要点方面针对国内外人工智能产业的发展现状给出综合阐释与分析。

1.1企业

根据《乌镇指数:全球人工智能发展报告(2016)》,全球人工智能企业集中在少数国家,其中美国、中国、英国企业数分别为2 905、709、366,总共占据全球企业的65.73%。

中国人工智能企业主要集中在北京、上海、广东等发达地区,发达地区的人工智能企业约占全国的85%左右。其中,北京市为人工智能企业集中创新地。

经济发达地区的信息化程度较高、互联网发展迅速、融资环境优良,适合各类高新产业的成长发展。上述数据也表明了人工智能企业在经济较为发达地区的发展要更为迅速。

1.2融资

全球人工智能企业的融资情况与企业分布的情况大致相同,美国人工智能企业在2016年融资总量约为180亿美元,中国企业为25.7亿美元,英国企业为8.16亿美元。

中国2015年人工智能行业获投金额约为100亿人民币,同比上升40%左右,略低于全球平均水平,其中机器人领域的投资比例则居于全领域首位。

1.3成果

全球专利数据库的数据表明,美国人工智能行业申请的专利总数约为2.7万件,中国为1.6万件,日本位列全球第三、约为1.5万件。将美国和中国的公司总数和融资金额分别与专利成果相对比,中国人工智能企业创造专利成果的效率要远远高于美国。2017年2月美国《大西洋月刊》中的刊文指出:中国的大学及公司在研发和使用人工智能方面已开始超越美国同行。

中国人工智能企业专利数量按地区分布明显,集中在北京、上海、江苏、广东和浙江五个地区,占总体60%左右。其中,机器人方向的专利占总体的38%左右。

1.4政策

近年来,世界各国和国际组织纷纷出台相关政策扶持人工智能产业。以美国、欧盟和中国为例,制定计划内容即如表1所示。

2人工智能产业发展的风险分析

科技创新必然将带来社会进步,但同时也必将面临新的问题侵扰及风险。现如今世界正处在第三次工业革命之中,在享受着快捷、便利与智能的同时,却也并行涌现了诸如失业、信息泄露等风险。但是当人工智能的收益远大于其风险的时候,就需要准确把握风险的类别及规律,采取合理的手段管控风险。随着人工智能产业的发展,技术会更加成熟,产业结构不断优化,风险的种类和性质也会逐渐变化,弱人工智能与强人工智能所带来的风险后果也将截然不同。在此,针对人工智能产业在发展过程中的各类可能新风险则可展开如下的研究论述。

2.1伦理风险

学界和业界有许多关于人工智能伦理问题的讨论,比如是否该赋予机器人人权?人工智能的伦理问题一直是舆论焦点,但始终也没有定论,多年来人工智能行业在伦理担忧中逐渐前进,诸如人工智能的使用过程中,偶尔难免会做出违背人道主义的事情,谩骂、殴打和虐待这些恶性事件就可能降临到机器人的头上,甚至当机器人变成发泄的工具、变态的玩具的时候,人类是否为这样的行为找到了正当理由?当人工智能接近人类智能时,是否能够守住人类的伦理与道德底线,给予其切实合理的伦理定位也仍是当下值得探索深思的开放性研究课题。

2.2技术风险

几十年来人工智能的发展已经深入到各个领域,涉及数学、计算机科学、心理学、神经学等众多门类,在机器人、识别系统、智能分析、智能设计等方面获得了广泛应用。历史上由技术故障导致的机器人“伤人”事件早在20世纪70年代即已见诸报端,而人工智能技术的发展并没有从根本上解决此类问题。2016年11月,第十八届中国国际高新成果交易会上由于工作人员的操作失误,使机器人撞向站台,划伤观众。由此可见,人工智能最为直接的现实挑战就是技术风险。除了威胁人类日常生活安全,人工智能的技术风险也可能造成信息泄露等一系列伴生问题。诸如此类的技术问题从源头上只能交给产品开发者来研究控制,如果不将“意外”的因素考虑进去,人工智能技术便不能进入真正的推广普及。

2.3军事风险

一个国家最先进的科技通常即会先行进入军事领域寻求拓展应用,早在20世纪60年代人工智能仅是处于定义推出阶段,世界各国便已开启了人工智能在军事领域的研究,无论从智能指挥系统等技术方面的应用还是替代士兵作战的功能,人工智能在军事领域的研究均已呈现向纵深及广域展开态势。未来的军备竞赛是兵器技术与人工智能的比拼,也是军事费用与研究水平的比拼。必须指出,战争风险仍然存在,但当机器人士兵大量出现时,战争消耗变成了纯粹的资本消耗,人身伤亡的减少会削弱道德与舆论的呼声,战争则可能会变得更加频繁与迅速。

2.4异化风险

国内外的诸多学者与专家都坚信,人工智能在未来会超越人类智能,人类正在创造一个比自身更加强大的物种。那么许多科幻电影的剧情便有可能真实上演,人工智能的异化与反抗便具备了发生可能。许多人工智能的专家也许仍持反面异议,因其会相信自己的技术水平而不是虚妄的预测。但是正如历史已然证明,就像原子弹与克隆技术一样,科学家们创造出来的成果往往并不能由本群体来决定是否投入使用。那么时下的当务之急就要合理把控这些风险,利用制度与立法规范人工智能的开发与使用,避免极端事件的发生。

3对策及建议

综上可得,现今已然无法阻挡也不会阻挡科技创新的步伐,但却必须在人工智能产生危机之前采取适当的预防性行动及相应的制度化措施来规避可能到来的危险。详情阐述可见如下。

3.1立法与监督

2017年1月,欧洲议会法律事务委员会呼吁制定有关人工智能与机器人的法案。法律是规范人工智能的研发与使用的最佳选择。许多可能会发生的风险,都可以由法律来提供约束化解,在研发方面,可以规定机器人“铁律”、量化机器人的智能等级、限制人工智能的应用范围等;在使用方面,可以限制公司对不同级别机器人的最大使用数量或占全体工作人员的比例并逐渐放宽该项措施,以降低失业潮所产生的不良影响。并且,有必要设立监管部门进行专项监督,从保障“人”的利益出发,规范市场行为,维护行业秩序,防止人工智能的肆意开发与过度使用。

3.2加强国际合作

人工智能所带来的风险是世界性的,世界各国和国际组织应该积极加强合作交流应对风险。各国应在联合国的通力协调下联合建立用于研究人工智能风险与安全问题的组织,解决人工智能所产生的国际问题。国际问题只能借由国际合作交流来一致探索设计策略与合理模式,世界各国应牢固树立人类命运共同体意识,在共同宗旨下推动世界在人工智能飞速发展的背景环境下实现平稳有序向前迈进。

3.3\用保险手段

随着科技的发展,保险业在金融业的地位逐渐提高,新型保险产品可以帮助人工智能企业与个人分散风险。现在并未推出与人工智能相关的保险产品,保险公司有待开发针对人工智能与机器人的企业责任保险、个人人身保险与财产保险,当人工智能出现技术问题造成被保险人人身伤亡与财产损失时,保险公司的赔付会在一定程度上减轻企业与个人的经济负担。

3.4征税与创新

针对机器人造成的失业现象,比尔盖茨曾表示:可以对机器人征收所得税,对因此产生的失业者进行培训,增强对失业人群高新产业技能的培养。在政策创新方面,可以在社会工作总量不变的情况下以减少个体工作量或者或减少社会工作日天数来增加就业人数。当一个新技术得到了广泛使用时,随之而来还有其衍生行业与衍生产品,未来人工智能技术对人类社会改变仍然难以做出准确描绘,这就要求人类积极创新,尽快适应新科技带给人类社会的改变。

人工智能的投资逻辑范文6

人们可能一般会这么去理解人工智能:人工智能非常聪明,智能机器人可能会夺走人类的工作,让人类找不到饭碗,甚至会控制人类,最终夺取这个星球。

除了上面这种把人工智能看成敌人的观点,另一种观点是把人工智能当做人的奴隶。然而,我并不完全同意上面这些观点。我认为,人工智能是在人类生活过程中自动化的延续。

我们可以在网上搜索一下人工智能的定义:人工智能就是AI,其一般性的解释是,其本质是计算机的理论和系统,使得那些传统需要人类去完成的工作,包括像语音识别、视觉感知、决策和不同语言之间的翻译等,都将逐步被人工智能所取代。但是,我认为,人工智能并不会取代人类、让人类完全失业,这样的观点是比较狭隘的。

人工智能在多大程度上能帮助人类进行决策呢?我们在进行网上搜索的时候,可能会输入我们所需要的一些信息,同时网络会很快给你一个需要的答案和结论。大家想象一下,一个普通人能够阅读这么多网站信息、能够阅读那么多图书资料,并能够在这么短的时间内给出一个回馈,然后进行匹配吗?我认为,没有一个人能做到这一点。

当然,我们并不是说搜索引擎能够完成这个工作,就显得人类无能。当计算机系统帮助我们完成这些人工智能所需要完成的工作时,明显比人类更有效率、更快捷,这并不是说人类的智能就达到了一个极限,只是各取所长而已。

人类和计算机之间的区别,本质上是一种思维方式、学习方式的不同。在过去几年中,机器翻译应该说是取得了巨大的进展,这当然是得益于巨大的文本统计和数据分析。

机器学习让机器更智能

过去几年,机器学习取得了非常重要的成果,为什么?因为它有了更多的数据统计和分析,能够通过标准逻辑和格式呈现给计算机。

所以我想跟大家阐述的就是,大众眼中的人工智能和现实社会中所应用的人工智能是截然不同的。如果大家看电影看得多的话,可能会认为,未来人工智能会通过各种高端计算机从人类手中夺权,但这种幻想和理念是不正确的。

比如一个洗衣机器人,这个机器人会照你安排的方式洗衣,因为所有的程序都设定好了,但机器人没有自己的意识,也没有办法去进行自我反思,自己设定自己的目的,因此我认为,这种洗衣机器人不会在某天工作的时候,突发奇想:“洗衣服、叠衣服太笨了,我应该去建大楼。”

如果把“智能”这个词往广泛的角度去理解,让我们看看人类智能和机器智能或者说人工智能有什么样的差别和联系?

首先,我们现在很难有一个非常严格、精确的定义去界定所谓的人类智能或者人类智商、人类智慧,因为这个定义并不准确,你很难去定义。

在美国,如果要去测试一个人或者是一组人的智商的话,通常我们会用IQ测试。但这种IQ测试方式本身就是有问题的,因为人的智慧很复杂,怎么可以用一组数据、一组排名,甚至一些基本的格式来规范一个人的智商呢?我觉得这种测试方式是非常简单粗暴的。

所谓的IQ智商绝对不是一组客观的数据,也不能通过一个简单的测试达到一个基本排名。我认为,所谓的人类智商是一种主观观点,在每一个文化背景下,人们对美的定义是不一样的。

通过刚刚所举的例子,大家可能觉得机器智慧很快就会超越人类智慧了,然而我并不这样认为,这只是两个特定的应用案例。

随着技术的发展和时间的推移,机器智慧在特定的应用领域会逐渐成熟,但不意味着普通通用性的机器智慧会有极大的推进。也许通过特定技术的应用,它能够缓慢地推进普通机器智慧,但总的来说,它只是一项特定的应用功能。

但人们还会担心,机器人或者是人工智能是否会占领人类就业的“高地”呢?当然这种情况已经发生了,在很多地方,包括像证券交易所、农场,已经有机器人的大量出现了。

为什么现在越来越多的工厂、公司都使用机器人和人工智能呢?原因很简单,这不是因为它们很聪明,而是因为成本更低、生产效率更高、生产的产品质量更好。比如说我们用机器人和人工智能处理信息的时候,比传统上用人类手工填写纸质文件效率高很多,而且不会犯错。

所以下面我想跟大家介绍一下我所理解的人工智能和这种人工智能,究竟会对未来社会产生什么影响。

人工智能时代的社会变革

在未来几十年,人工智能至少会在以下两个方面对社会产生重要影响,第一个是劳动力市场,第二个就是财富的再分配。

我认为,如果大家觉得有越来越多的机器人进入市场以后,会夺取人的工作,我觉得这样的想法过于简单。因为人工智能系统和机器人并不会主动完成一项工作,它们只是按照我们的设定,按照这种自动化的程序去“工作”,所以确切地说,越来越多的工作是由人类与人工智能一起配合共同完成的。

那什么样的工作会快速被机器人或者人工智能所取代呢?一些低技能的、单一的、重复的工种很快会被人工智能取代。但一些工作环境比较复杂,需要实时地提出解决方案,并快速地适应社会的变化,这样的工作是安全的。

我这边也举两个工种和大家分析一下。一个工种是大家熟知的银行柜员。他们主要完成四项基本工作,一是数钱,二是帮助客户存钱,三是核实现金数目,四是给客户开账户。而前面两项比较简单的数钱和存钱工作,机器人是可以完成的。而后两项工作需要和人、和客户进行面对面的沟通,还是会由柜员来完成,因为他们更有经验、更善于与人沟通。

另一个工种是泥瓦匠,他们每天的工作就是垒砖,这样的工作很快会被机器人取代,而且据我所知,已经有这样的机器人在研发了。

技术一方面能够帮助我们降低劳动力总数,另一方面又能够提高劳动生产率,比如有些传统意义上需要很多人的工作,现在只需要几个工人就行了。

从整个社会层面而言,由于整个社会生产力的提高、社会生产成本的下降,整个社会的富裕程度也会不断提高。随着整个社会变得越来越富裕,人们的需求变得越来越多元,人们会越来越关注自己真正的需求和需求的多样性。

当人类的需求变得越来越复杂、越来越精细、越来越高端化,而这些新的需求会产生更多新的服务行业,从而产生更多新的工作岗位,雇用更多的劳动力。

当然,我们不能只看到好处,虽然就业的增加对整个社会而言是利好,但这种利好背后是工作技能的截然不同。用经济学家的话来说,随着技术进步所产生的失业就是技术性失业。如果这种失业所产生的失业劳动力不能被很好地安置,找到自己新的工作岗位的话,将会引起严重的社会问题。

时代风口的抉择与机遇

随着人工智能系统的发展和技术的进步,社会将变得越来越富有。那么这些社会财富究竟由谁掌握?我认为,这种自动化技术就好比资本要素,谁有自动化技术,谁就有能力去占领整个劳动力市场,谁就有能力去投资整个市场。