金融非线性网站

来源: 2008-07-23 16:42:51 [博客] [旧帖] [给我悄悄话] 本文已被阅读:

http://blog.zol.com.cn/log_list.php?userid=Angel-FI


“同时也是为全球金融体系创建一个稳定的货币体系方面取得的成功。法定货币(Fiat money,指政府创造的货币)如今已良好运转逾四分之一世纪,提供复杂金融体系一向依赖的货币体系稳定性。“

金融资本主义如何转型?

黄金情节


1、神经网络的本质是一个非线性选择系统。
2、神经网络的难点在于“权重”的计算,在人脑研究方面,人们到现也没有理解神经细胞是如何对输入的信息进行加工处理的,(人脑中输入的是电脉冲,还有化学信号。
3、神经网络具有联想与记忆功能。也许网络复杂到一定程度,还会有一定的创造力。
4、神经网络一般必须与其它算法,比如遗传算法一起使用才会有好的效果。
5、除了让计算机运行而检验神经网络的功能外,还没有什么方法能依据网络的连接与权重等信息判断如何从根本上构建一个功能性网络,个人认为如果找到这种方法,将会是一个人工智能的一个飞跃,因为我们已经习惯按功能划分一个物体,并将它们组合起来形成一个更为强大的东西。



从计算的观点看
李建会
20世纪的计算革命不仅为我们提供了崭新的科学研究的方法,而且为我们提供了全新的看问题的视角。计算机的理论和实践使我们逐步形成了一种新的世界观,即计算主义的世界观:不仅认知和生命可以被看作是计算过程,而且整个宇宙都可以被看作是一个巨大的计算系统。
一、 认知和计算
最早从计算的视角审视问题的是关心人的认识本质的哲学家。笛卡尔认为,人的理解就是形成和操作恰当的表述方式。洛克认为,我们对世界的认识都要经过观念这个中介,思维事实上不过是人类大脑对这些观念进行组合或分解的过程。霍布斯更是明确提出,推理的本质就是计算。莱布尼兹也认为,一切思维都可以看作是符号的形式操作的过程。进入20世纪,弗雷格,怀特海、罗素等人通过数理逻辑把人类的思维进一步形式化,形成了所谓的命题逻辑及一阶和高阶逻辑。在他们看来,逻辑和数学,都是根据特定的纯句法规则运作的。在这里,所有的意义都被清除出去而不予考虑。在弗雷格和罗素的基础上,维特根斯坦在他的早期哲学中把哲学史上自笛卡尔以来的原子论的理性主义传统发展到了一个新的高度。在维特根斯坦看来,世界是逻辑上独立的原子事实的总和,而不是事物的总和;原子事实是一些客体的结合,这些事实和它们的逻辑关系都在心灵中得到表达:我们在心灵中为自己建造了事实的形象。人工智能事实上就是试图在机器中实现这种理性主义理想的一门学科。不过,这还需要等到计算理论成熟之后。
在计算理论发展过程中,阿兰·图灵(A.Turing)的思想可以说是最关键的。在1936年发表的论文中,图灵提出了著名的图灵机概念。图灵机的核心部分有三:一条带子、一个读写头、一个控制装置。带子分成许多小格,每小格存一位数;读写头受制于控制装置,以一小格为移动量相对于带子左右移动,或读小格内的数,或写符号于其上。可以把程序和数据都以数码的形式存储在带子上。这就是“通用图灵机”原理。图灵在不考虑硬件的前提下,严格描述了计算机的逻辑构造。这个理论不仅解决了纯数学基础理论问题,而且从理论上证明了研制通用数字计算机的可行性。
然而,图灵不止于此,他是从人类“计算者”模型出发得出图灵机原理的,现在,他要反过来,从图灵机概念出发,说明大脑和计算的关系。图灵认为,人的大脑应当被看作是一台离散态机器。尽管大脑的物质组成与计算机的物质组成完全不同,但它们的本质则是相同的。离散态机器的行为原则上能够被写在一张行为表上,因此与思想有关的大脑的每个特征也可以被写在一张行为表上,从而能被一台计算机所仿效。1950年,图灵发表了《计算机器和智能》的论文,对智能问题从行为主义的角度给出了定义,设计出著名的“图灵测验”,论证了心灵的计算本质,并反驳了反对机器能够思维的9种可能的意见。
在图灵的影响下,麦卡锡(J.McCarthy)、明斯基(M.L.Minsky)、西蒙(H.A.Simon)和纽厄尔(A.Newell)等人开创了人工智能这门新的学科。1955年,纽厄尔和西蒙就得出结论,计算机操作的二进制数字串能代表任何东西,包括现实世界中的事物。纽厄尔和西蒙还进一步指出,人类大脑和计算机尽管在结构和机制上全然不同,但是在某一抽象的层次上则具有共同的特征:人类大脑和恰当编程的数字计算机可被看作同一类装置的两个不同的特例,它们都通过用形式规则操作符号来生成智能行为。1981年,纽厄尔和西蒙把他们的观点总结为一个称作“物理符号系统假设”的假设:对于一般的智能行为来说,物理符号系统具有的手段既是必要的,也是充分的。
所谓“必要”的意思是:任何表现出一般智能的系统,经过分析,都可以证明是一个物理符号系统。所谓“充分”的意思是:任何足够大的物理符号系统,都可以通过进一步组织,而表现出一般智能。(纽厄尔和西蒙,第150页)这个假设的核心就是把思维看作是一种信息加工过程,把智能的本质看作是计算。
符号学派主要采取的是符号操作或符号转换的方法探索认知和智能的本质,而在20世纪40年代兴起的联结主义学派则从模拟大脑结构方面探索认知和智能的本质。联结主义认为,人类的认知是从大量并行的神经元的相互作用中产生的。联结主义的目的不再是用符号和符号操作来模拟认知过程,而是模拟发生在神经系统中的过程。联结主义的理论在60年代由于受到明斯基等著名人工智能专家的反对,曾一度处于低潮。然而,到了80年代,鲁梅哈特(D.E.Rumelhart)、麦克里兰(J.McClelland)等人两卷本的《并行分布处理:认知的微观结构探索》一书的出版,使联结主义研究再度兴起,受到广泛的关注。联结主义虽然不把符号的操作看作是认知最重要的方面,但仍然把每个神经元都看作是一个计算单元。在联结主义学派看来,智能不是别的,智能是神经元网络整体突现出来的特性。神经网络的突现机制尽管跟物理符号系统不同,但神经网络的本质仍然是计算。实际上,1987年,波拉克(J.Pollack)证明,神经网络与图灵机只有形式上的差别,在本质上它们是等价的。
二、 生命和计算
与图灵提出人的大脑是一台离散态的计算机的思想几乎同一时期,计算机科学的另一个开创者冯·诺伊曼(J.von Neumann)则开始从计算的视角思考生命的本质问题。20世纪40年代晚期,冯·诺伊曼在美国加州帕赛迪纳(Pasadena)的海克森(Hixon)研讨班上就这个课题作了一系列演讲,题目是“一般和逻辑的自动机理论”。海克森演讲的最核心问题是自我繁殖的概念。一个人工的机器能够繁殖它自己吗?当年笛卡尔在声称动物是机器的时候,就曾被这个问题所难住。但冯·诺伊曼要回答这个问题,他要找到自动机产生后代的条件,他要证明机器可以繁殖!
为此,冯·诺伊曼作了一个思想实验。他想象一台机器漂浮在一个池塘的上面,这个池塘里有许多机器的零部件。这台机器是一台通用的建造器:只要给出任何一台机器的描述,这台机器就会在池塘中寻找合适的部件,然后再制造出这台机器。如果能够给出它自身的描述,它就可以创造出它本身。不过,这还不是完全的自我繁殖,因为后代机器还没有对自身的描述,它们因此不能复制自己。所以,冯·诺伊曼继续假定最初的机器还必须包含一个描述复制器,一旦后代机器产生出来,它也从亲代那里复制一份关于自身的描述,这样,后代机器就可以无穷无尽地繁殖下去。
冯·诺伊曼的这个思想试验虽然非常简单,但是揭示的问题却非常深刻。换一种方式说,冯·诺伊曼的意思是,任何自我繁殖的系统的基因材料,无论是自然的还是人工的,都必须具有两个不同的基本功能:一方面它必须起到计算机程序的作用,是一种在繁殖下一代时能够运行的算法,另一方面它必须起到被动数据的作用,是一个能够复制和传给下一代的描述。冯·诺伊曼的这种使生命过程形式化的思想几年之后被一项惊人发现做了令人惊异的验证,这就是1953年沃森和克里克揭示的DNA结构和自我复制的机理。DNA的特性正好具备冯·诺伊曼所指出的两个要求。作为一个基因程序,DNA编入了制造细胞所需要的酶和结构蛋白的指令;作为一个基因数据仓库,DNA的双螺旋结构在每次细胞分裂为二时都能解开和自我复制。
然而,冯·诺伊曼对他自己的动力学模型并不十分满意。他不能充分地获得最小的逻辑前提,因为该模型仍然以具体的原材料的吸收为前提。这使详细阐明机器运动的很多精确的简单规则变得非常困难。并且这些规则也必须包括自动机识别正确组成部分的能力。也就是说,它需要某种传感机制和协调得很好的运动控制功能,以保证这些组成部分能被有秩序地组装起来。所有这些使冯·诺伊曼感到,该模型没有很好地把过程的逻辑形式和过程的物质结构区分开。作为一个数学家,冯·诺伊曼需要的是完全形式化的抽象理论。他与著名的数学家乌拉姆(S.Ulam)讨论了这些问题,乌拉姆建议他从细胞的视角思考这个问题。冯·诺伊曼接受了这个建议,于是就有了细胞自动机(简称CA)的开创性工作。
简单地说,CA是由有限自动机的方格构成。有限自动机是机器的最简单的形式模型。有限自动机在给定时间只能处在有限状态中的一个状态之中,并且它从一个时间步骤到另外一个时间步骤的状态变换是由状态转换表决定的:给定特定的输入和特定的内在状态,状态转换表规定有限自动机在下一个时间步骤采取哪种状态。对CA来说,每一个格点表示一个细胞或系统的基元,每一个细胞都是一个很简单、很抽象的自动机,每个自动机每次处于一种状态,下一次的状态由它周围细胞的状态、它自身的状态以及事先定义好的一组简单规则决定。所有的自动机遵循相同的转换表,在相同的时刻同时改变状态。1953年,冯·诺伊曼在大量工作的基础上,终于得出与他的动力学模型等价的逻辑模型。
他的模型有3个组成部分:一是存储带(memory tape),包含被建造机器的描述。如果是自繁殖的情况,那么存储带包含的是建构器自身的描述。二是建构器自身,一个非常复杂的能够解读存储带内容的机器。三是受建构器指导的建构臂,用来建构存储带所描述的机器后代。建构臂穿过空间移动,同时设定后代组成部分的值。
冯·诺伊曼模型的开始模式处在一个巨大的细胞阵列中,其中每个细胞可以有29种不同的状态。动力学模型中的物质运动过程,在细胞自动机中由细胞与细胞之间的信息传递过程取代。为了给自动机构造实际的规则或状态转换表,冯·诺伊曼假定他的基于细胞的形式体系具有足够的计算和建构能力。这样的建构在两个水平进行:(1)自动机实际的基本细胞阵列,以及(2)嵌入到基本的自动机中作为状态模式的“通用建构器”。这种模式本身构造了一个虚拟的自动机,用数学的语言说,它是以通用图灵机为基础的。这使高层信息处理过程的建构(比如过程控制的建构、复制、传递和信息存储)成为可能。
冯·诺伊曼非常喜欢细胞自动机的概念:这个系统既简单抽象,完全可以进行数学分析,同时又丰富多彩,使他能够解决他想解决的问题。冯·诺伊曼的工作说明:一旦我们把自我繁殖作为生命的独一无二的特征,那么机器也完全可以做到这一点。
冯·诺伊曼的自我繁殖自动机观念虽然很伟大,但由于受计算能力的限制,并没有立刻引起人们的关注。直到70年代,由于剑桥大学约翰·康韦(J.Conway)的工作,细胞自动机的思想才再次激起人们研究的热情。
康韦编制了一个名为“生命”的游戏程序,该程序由几条简单的规则控制,这几条简单规则的组合就可以使细胞自动机产生无法预测的延伸、变形和停止等复杂的模式。这一意想不到的结果吸引了一大批计算机科学家研究“生命”程序的特点。最后终于证明细胞自动机与图灵机等价。亦即,给定适当的初始条件,细胞自动机可以模拟任何一种计算机。
80年代,斯蒂芬·沃弗拉姆(Stephen Wolfram)对细胞自动机(CA)做了全面的研究(1984)。他将细胞自动机分成四种类型:类型Ⅰ,CA演化到一个均质的状态;类型Ⅱ,CA演化到周期性循环的模式;类型Ⅲ,CA的行为变成混沌;类型Ⅳ,CA的行为展现出局域化的和持续的结构,特别是,其中有些结构具有通过CA的网格传播的能力。
为什么有些细胞自动机能够产生很有意义的结构,而另外一些却不能呢?这个问题吸引了克里斯·兰顿(C.Langton)。兰顿定义了一个参数作为细胞自动机活动性的一个测量。兰顿用不同的参数值做了一系列试验,结果发现,当细胞活动水平非常低时,细胞自动机倾向于收敛到单一的、稳定的模式;如果活动性非常高,无组织的、混沌的行为就会发生;只有对于中间层次的活动性,局域化的结构和周期的行为(类型Ⅱ和类型Ⅳ)发生。兰顿因此把类型Ⅳ的CA看作是表达了部分发展的混沌行为,并因此把它们称为处于“混沌边缘”的CA。在混沌的边缘,既有足够的稳定性来存储信息,又有足够的流动性来传递信息,这种稳定性和流动性使得计算成为可能。在此基础上,兰顿作了一个更为大胆的假设,认为生命或者智能就起源于混沌的边缘。正是在这样的思想的指导下,兰顿提出了他的人工生命理念。兰顿认为,生命的本质不在具体的物质,而在物质的组织形式。生命并不像物质、能量、时间和空间那样,是宇宙的基本范畴,而只是物质以特定的形式组织起来派生的范畴。这种组织原则完全可以用算法或程序的形式表达出来。所以,只要能将物质按照正确的形式构筑起来,那么这个新的系统就可以表现出生命。而这种所谓的“正确的形式”就是生命的算法或程序。所以,算法和程序是把非生命和生命连接起来的桥梁,是生命的灵魂。
三、 宇宙和计算
一旦从计算的视角审视世界,一些科学家不仅把大脑和生命系统看作是计算系统,而且认为整个世界事实上就是一个计算系统。当康韦证明细胞自动机与图灵机等价时,就有人开始把整个宇宙看作是计算机,因为特定配置的细胞自动机原则上能模拟任何真实的过程。实际上,我们完全可以把细胞自动机观念推广到物质世界,把宇宙看作是一个巨大的三维细胞自动机。基本粒子或其它层次的物质实体可以被看作是这个细胞自动机的一个个格点,物质实体的状态可以看作是细胞自动机格点的状态,物质世界的规律可以看作是支配这些格点变化的行为规则。在这些规则的作用下,宇宙中的基本粒子发生各种变化,从而导致宇宙的演化。
细胞自动机有四种类型。如果宇宙是一个巨大的细胞自动机,那么宇宙属于哪种类型的细胞自动机呢?从现有的宇宙特征看,我们的宇宙总体上是一个很有秩序的宇宙。迄今,我们的宇宙,不论是在亚原子的尺度还是在宇观的尺度,都演化到了一种充满结构的复杂性状态,而不是一个走向热平衡的状态,特别是在我们的地球行星上,还演化出了生命和智能这种高度复杂高度有序的存在。根据沃弗拉姆和兰顿,只有类型Ⅳ的细胞自动机能够产生复杂的结构,因此,宇宙这个巨大的细胞自动机事实上是一个处于混沌边缘的细胞自动机,因为只有这样的细胞自动机才能够产生丰富的结构,才能产生生命和智能。
自19世纪中期开始,一些学者就开始为这样的问题所困扰:根据热力学第二定律,我们这个宇宙注定要走向死寂,走向无序;可事实上,我们的太阳系、我们的地球以及地球上的生命和智能都是高度有序的存在。达尔文的进化论告诉我们生命是可以从低级向高级发展的,可物理世界甚至整个宇宙为什么会走向有序呢?20世纪中叶,普里高津的耗散结构理论又得出结论,非线性的、远离平衡的、开放的系统可以从无序走向有序,可这还是解释不了为什么宇宙总体上会走向复杂和有序。确实,我们很难想象,在一次巨大的爆炸之后,宇宙为什么没有走向混乱,相反却向有序方向演化。因为在最初阶段,所有的东西似乎是完全混乱的,可后来各种复杂的结构就开始形成:粒子、分子、气体云、星系、恒星、行星、海洋、自催化的新陈代谢、生命、智能、社会……等等。
然而,如果我们从计算的角度来理解,这一切又是明显的。宇宙是一架特定配置的细胞自动机,用兰顿的话说,就是一架处于混沌边缘的细胞自动机。这样的机器可以产生任意复杂的结构。因此,我们今天的宇宙,不论是星系还是恒星,也不论是生命还是智能,都高度有序,都有复杂的结构。如果像某些天文学家所说,在我们这个宇宙中的一些黑洞有可能爆发形成新的宇宙,如果这个新爆发的宇宙的细胞自动机的初始状态和规则与我们这个宇宙相同,那么这个宇宙像我们这个宇宙一样产生出生命和智能就完全是可能的。
当然,我们还没有完全了解我们这个宇宙的自动机的实际规则。这还需要那些试图揭示宇宙奥秘的学者做很多艰苦的实证的努力。正如弗里德金(E.Fredkin)所做的那样,我们可以通过在计算机中建立“数字力学”,来发现这些规则。如果我们发现了这些规则,那么我们就会更加深刻地认识宇宙的奥秘(Fredkin)。
四、对挑战的回应
计算主义,特别是认知计算主义提出之后,曾遇到两大挑战。一是哥德尔不完备定理的挑战,一是塞尔的“中文屋思想实验”的挑战。对于前者,我曾在《走向计算主义》中作过说明(李建会,2003年),这里我再作一些补充。哲学家普特南曾对卢卡斯用哥德尔定理否定认知计算主义提出过批评,他的论证很有说服力。普特南指出,与数学中的其它定理的证明一样,哥德尔定理的证明也是机械的;既然是机械的,我们自然就可以设计一套程序让计算机去证明哥德尔不完备定理;在证明过程中,计算机也会说:“存在真的语句……不能在系统内被证明”这样的语句,因此计算机也知道这些不能被证明的语句是真的。因此,普特南说,用哥德尔定理否定认知计算主义就是站不住脚的。
对于塞尔中文屋实验,很多哲学家提出过批评,最著名的当属丘奇兰(Churchland)和博登(Boden)的观点。丘奇兰认为,塞尔的思维方式带有明显的实体论思维的痕迹。他设计了一个“黑屋实验”,从光和电磁波的关系出发反驳了塞尔的观点。博登则从语法和语义不可分的关系出发对塞尔进行了批评。他们的观点都很有道理。这里我将从一个新的角度作一点补充。科学史和哲学史上有很多著名的悖论或诡辩,比如芝诺悖论、秃头论辩等。这些论辩向我们对自然的某种基本认识甚至我们的理性本身提出了挑战。我们都知道阿基里斯会在一定时间内赶上乌龟并超过它;我们也知道,头发掉到一定程度就会成为秃头,谷子堆到一定程度就会成为谷堆。我们知道这些论辩有问题,但我们难以通过理智的论证反驳它们。塞尔论证与此类似。我们都知道,神经网络的信息处理可以产生意识,但我们又难以通过语法和语义的关系来说明。过去我们用“量变可以引起质变”的辩证法反驳秃头论辩和芝诺悖论,今天我们可以用复杂性科学中的“突现”概念反驳塞尔论证。智能或认知是信息处理复杂到一定程度突现的结果。当前智能的一个新理论——“集群智能”(Swarm Intelligence)表达的就是这个思想。
参考文献
李建会,2001年:《计算机仿真实验》,载香港《二十一世纪》第2期。
2002年:《数字生命的实在论地位》,载《哲学研究》第12期。
2003年:《走向计算主义》,载《自然辩证法通讯》第3期。
纽厄尔和西蒙,2001年:《作为经验探索的计算机科学:符号和搜索》,载博登《人工智能的哲学》,刘西瑞、王汉琦译,上海译文出版社。
Boden, M.,1988,“Escaping from the Chinese Room”,in Computer Models of Mind, Cambridge University Press.
Churchland, Paul M. and Churchland, Patricia S.,1990,“Could A Machine Think?”,Scientific American, 262(1), January,pp.20-25.
Fredkin, E.,1990,“Digital Mechanics”, Physica D, 45:254-270.
Langton, C. G.,1991,“Life at the Edge of Chaos” ,in C.G.Langton, C. Taylor, J. D. Farmer & S. Rasmussen (eds.), Artificial Life Ⅱ.SFI Studies in the Sciences of Complexity, Proc. Vol. X. Redwood City, CA:Addison?Wesley.
Pollack, J.,1987,“Cascaded Back?Propagation on Dynamic Connectionist Networks”, Proc. Ninth Ann. Conf. Cognitive Sci., Soc., pp. 391-404.
Turing, A. M.,1950,“Computing Machinery and Intelligence”,Mind,59: 433-460.
(作者单位:北京师范大学哲学与社会学学院)
责任编辑:朱葆伟(《哲学研究》2004年第3期)


基于神经网络方法的财务风险识别
喻胜华

摘要:本文利用上市公司披露的信息数据库为平台,将神经网络方法应用于财务风险识别。实证结论表明:我们不仅把模型的仿真度提高到100%,而且显著提高了财务状况特征识别的准确率。从而克服了国内以往的数据挖掘研究极大忠诚于外国文献、重理论轻实践的缺点,生动、形象地展现了基于神经网络方法的知识发现过程。
关键词:上市公司、财务风险识别、神经网络

一、引言
在我国的证券市场上,监督上市公司的一个重要的手段就是信息披露,通过信息披露我们可以知道上市公司的财务状况、经营情况、现金流量以及经营决策等有利于外界了解公司、分析公司的信息。投资者通过这些信息决定是否投资,债权人通过这些信息评估债务人的信用,税收部门通过这些信息保证国家税收收入,政府监管部门通过这些信息维护健康的市场环境。所有这些,都需要利用公司的财务报告数据来评价公司的业绩和财务状况,有关这方面的研究已有久远的历史。Fitzpartrick(1932)进行了一项单变量的破产预测研究,他以19对破产和非破产公司作为样本,运用单个财务比率将样本划分为破产和非破产两组,发现判别能力最高的是净利润/股东权益与股东权益/负债这两个比率。但一直到1966年才有人沿着他的这条思路继续研究财务危机的预测问题。Beaver(1966)提出了单变量判定模型,他首先使用5个财务比率作为变量,分别对79家经营失败和79家经营成功的公司进行了一元判定预测,发现现金流量/负债总额能够最好地判定公司的财务状况(误判率最低),其次是资产负债率,并且离经营失败日越近,误判率越低,预见性越强。1968年,美国学者Altman博士首次利用多元判别分析对财务危机预测进行了研究,他对美国的破产和非破产的生产企业进行观察,采用了22个财务比率,经过数理统计筛选建立了著名的5变量Z值模型,根据判别分析确定的临界值对研究对象进行财务危机判别。Altman的研究成果克服了单变量模型出现的对于同一公司不同比率预测出不同结果的现象。与此同时,在西方掀起了企业财务危机预测的研究热潮。如Logit模型、Probit模型、回归分析、聚类分析、数学规划、K近邻判别法和专家系统等方法在财务危机预测中的使用。
进入20世纪90年代后,随着科学技术的发展,西方理论界及企业界对上述的线性方法提出了质疑,因为它们的有效性依赖于严格的假设条件,如变量的等方差、独立性及多元正态分布等。只有当这些假设条件满足,这些方法才有很好的效果。同时,海量的财务数据和经营信息并不能给人们一个清晰的认识,过去人们习惯用降维的思想来处理这些海量信息,可是,降维的过程中存在很多人为因素,其中最主要的就是权的确定,虽然人们想出了确定客观权值的方法,但那些方法却不可避免地丢失一些信息,这样一来,人们不得不去追求一种尽可能少地丢失信息,同时又尽可能排除人为因素的方法。神经网络方法就是这样一种方法,它本身就是一个智能系统,在学习的前提下工作。由于它的非线性、非参数和自适应学习等特征,因而可作为模式识别的一个强有力的工具。近年来,神经网络已广泛地应用于经济、金融和管理等领域,其中包括财务危机预测,许多学者运用不同的神经网络模型对企业的财务危机预测进行了研究:I.Poddig使用了多层感知器(MLP)对财务危机预测进行了研究,结果表明它比多元判别分析(MDA)方法有更好的预测稳定性。L.Kryzanowski等使用玻尔兹曼机理论(Boltzman Machine)评估了66个加拿大公司的财务状况,并用了14个财务比率进行分析,结果表明玻尔兹曼机理论是构建神经网络的有效工具,而增加训练样本有助于神经网络预测的准确性。D.Fletoher等使用交叉检验(Cross –Validation)的方法对模型进行了研究,使神经网络的适应性和预测能力有所提高。已有研究表明:神经网络具有对数据分布的要求不严格、非线性的数据处理方法、强鲁棒性和动态性等优点。这使之成为财务危机预测研究中的一个热点。本文把前馈神经网络方法应用于上市公司相关信息的数据挖掘,不仅提高了模型的仿真度,而且显著地提高了财务状况特征识别的准确率。这里要交代清楚的是:实验中我们以公司是否被特别处理(ST)过作为财务风险的评价标准。根据1998年实施的上市规则,沪深证券交易所从1998年4月2日起,有权对财务状况或其他状况出现异常的上市公司的股票交易进行特别处理,这里的财务状况或其他状况异常主要是指上市公司经审计连续两个年度的净利润为负值,或是上市公司最近一个会计年度经审计每股净资产低于股票面值。
二、样本和指标选择
本文选择的样本分训练样本和检验样本两类,每类样本分别由代表财务危机的上市公司和代表财务健康的上市公司组成。实证研究中先通过训练样本建立模型,然后用检验样本对模型的预测能力进行检验。
作为训练样本和检验样本的存在财务危机的上市公司的选取标准是:
(1)只发行A股股票的上市公司;
(2)其股票于2000年1月1日前已在上海证券交易所上市交易的公司;
(3)于2003年因财务状况异常首次被特别处理(ST)的上市公司。
满足条件的上市公司总计21家,为了研究方便,把剔除ST渝万里(60087)外的20家上市公司等分为两组分别作为训练样本和检验样本。训练样本包括:ST江纸(600053)、ST宁窖(600159)、ST华丰(600615)等;检验样本包括:ST啤酒花(600090)、ST绵高新(600139)、ST民百(600738)等。
作为训练样本和检验样本的财务健康的上市公司的选取标准是:
(1)只发行A股股票的上市公司;
(2)其股票于2000年1月1日前已在上海证券交易所上市交易的公司;
(3)截止2003年12月31日从未因财务状况异常而被特别处理的上市公司。
从满足条件的财务健康的上市公司中共选取30家,其中20家作为训练样本,其余10家作为检验样本。训练样本包括:中国国贸(600007)、青旅控股(600138)、申能股份(600642)等;检验样本包括:江南重工(600072)、多佳股份(600086)、宁夏恒力(600165)等。
根据我国上市公司年报披露制度,上市公司公布其当年年报截止日期为下一年的4月30日,故上市公司(t-1)年的年报和其在t年是否会因财务状况异常而被特别处理这两件事几乎是同时发生的,故我们选择(t-2)年和(t-3)年的财务指标进行判别。考虑到我国财务管理的实际情况,本文从盈利能力、经营能力、偿债能力、成长能力和现金流量等五个方面选择15个指标构建评价上市公司财务状况的指标体系,选择作为研究中使用的初始变量,根据《证券市场研究》、湖南证券网提供的财务数据,计算得到这些指标值。为了选择对ST公司和非ST公司区分能力最强的指标变量以及解决过多的指标带来的多重共线性问题,本文分别进行单变量组间均值相等检验和指标变量的相关性检验,最终选定主营业务利润率、净资产收益率、资产负债率、每股净资产和总资产增长率十个变量作为自变量用于建模。
三、实证分析
前馈神经网络用于预测上市公司财务状况异常的原理是:把用来衡量财务状况的建模变量作为神经网络的输入向量,将代表分类结果的量作为神经网络的输出向量,用训练样本来训练这个网络,使训练样本中的财务状况异常公司和财务健康公司的输入向量对应区分两类不同公司的输出向量,一旦训练完毕,使可作为上市公司财务状况特征识别的有效工具。
神经网络设计:财务状况异常特征识别神经网络的建立可视为构建一个包含输入层、若干隐含层与输出层的多层前馈式神经网络。设计的网络输入具有10个元素(即10个财务指标)的输入向量,输出一个具有2个元素的输出向量(正常情况下,对于一个输入,输出向量(1,0)表示符合财务异常状况特征;输出向量(0,1)表示不符合财务异常状况特征)。
文中训练样本的目标输出为:
根据 Input的维数,设置10个输入节点(即10个神经元);输入层到隐含层之间的传递函数为Logsig;根据Target的维数,输出层设置2个节点(即2个神经元);隐含层到输出层之间的传递函数为Logsig。网络结构见图1:






图1 基于两年指标的财务状况特征识别神经网络结构图

运用MATLAB6.5中的神经网络工具箱,选择训练参数:误差目标为0,最小梯度为1E-010,自适应因子μ的初始值为0.001,其增加系数为10,减小系数为0.1,最大值设定为1E10,选定输入文件和输出文件,从初始化阶段系统自动给出的初始权值矩阵和偏差矢量出发,对网络进行训练。经过训练可获得输入层与隐含层之间的最终权值矩阵,偏差矢量;隐含层与输出层之间的最终权值矩阵,偏差矢量:

训练的仿真模拟结果如下:
显而易见,网络的仿真度为100%
输入检验样本,让网络进行特征识别的网络输出为:

检验样本的实际特征为:

通过对比我们发现,网络错误识别数为5,网络特征识别的准确率为75%。
在两年十个指标的特征识别神经网络设计的基础上,我们把输入改为5个提前二年的财务指标,输出不变,设计神经网络见图2:







图2 基于一年指标的财务状况特征识别神经网络结构图

通过学习,该神经网络的仿真度达到100%。
检验样本特征识别的输出为:

由上可知,网络特征识别的准确率为80%,该网络对财务健康公司的判断的准确率为100%。在实际判断中,我们可以把两个网络结合起来使用,从而把财务状况识别的准确率提高到90%。
实证结果表明:相对于传统的统计方法而言,神经网络方法凭借其优良的非线性逼近的特点,大大提高了财务状况特征识别的准确率和模型的仿真度,由此可知神经网络方法在处理复杂识别问题时具有巨大的优势。



混沌理论在投资中的应用
2006-10-07 19:12:11

一,混沌和分形的基本概念
有人说:“20世纪的科学家只有三件事将被记住:相对论、量子力学和混沌。他们主张,混沌是本世纪物理学中第三次大革命。就像前两次革命一样,混沌割断了牛顿物理学的基本原则。如同一位物理学家所说:“相对论排除了对绝对空间和时间的牛顿迷梦;混沌则排除了拉普拉斯决定论的可预见性的狂想。”在这三大革命中,混沌革命适用于我们看得见、摸得到的世界,适用于和人同一尺度的对象。”
O 混沌的特征
1. 非周期;
2. 对初条件敏感;
3. 有界。
其中“对初条件敏感”是最为人们熟知的混沌特征。经典动力学的传统观点认为:系统的长期行为对初始条件是不敏感的,即初始条件的微小变化对未来状态所造成的差别也是很微小的。混沌理论则告诉我们,初始条件的十分微小的变化经过不断放大,可以对未来状态造成极其巨大的差别。正如中国的一句古话:“失之毫厘,谬以千里”。因此,对一个混沌系统进行长期预测是不可能的。
需要指出的是,“混沌”并不是混乱无序的状态,而是一种更高层次的有序(?)。混沌系统可以产生看上去随机但实际上却并非真正随机的结果。混沌是决定论的,是由确定性的非线性系统产生的,本质上是因果性的。
O 什么是分形?
非线性系统往往具有一种叫做“自相似”的统计特征,也就是说系统在不同尺度上具有相同的统计性质(整体与局部的相似性)。Mandelbrot提出了分形理论来描述这种特征。
对几何图形来说,分形指的是其空间上的自相似性;而分形时间序列则是指时间序列在不同时间尺度上的自相似性。金融时间序列也具有分形的特征,直观的说,股票的日线、周线和月线,看起来是很相似的(用统计方法分析,日收益、周收益和月收益的分布是基本相同的)。
下图是谢尔平斯基三角形,它是用随机的方式执行一个确定性的规则生成的。(从相互等间距三个点中的某一个开始,随机选择向其它两个点中的某一个移动一半的距离;记录下所有到过的点;重复以上过程10000次)。
从上图中我们可以观察到“自相似”的特点。它是确定性和随机性结合的产物,其整体特征体现了高度的有序。
二,分形市场假说(Fractal Market Hypothesis, FMH)
Peters认为有效市场假说(Efficient Market Hypothesis,
EMH)不能很好的描述真实的资本市场,而“分形理论”更符合市场的特征,因此提出“分形市场假说”作为有效市场假说的替代品。FMH重点分析了市场的流动性和投资期限对投资者行为的影响,对市场崩溃等现象能够给出比较合理的解释,关于FMH的详细讨论可以参见Peters的著作《资本市场的混沌与秩序》(侧重于描述性的讨论和分析)和《分形市场分析》(侧重于统计研究方法和经验研究结果)。
O 回顾有效市场假说(EMH)
EMH起源于对金融资产价格行为的研究,目的是找到价格变化的规律,以图从中获利。1965年,法马(Fama)提出这一假说,认为市场是一个“公平博弈”的场所,价格已经充分反映了所有可以得到的信息,因此信息不能被用来在市场上获利。EMH分为三种形式:弱有效,半强有效,强有效。一般认为资本市场是半强有效的,也就是说市场价格反映了所有过去的信息和所有公开的信息,通过分析公开信息来获取超额收益率的努力是徒劳的。
EMH的核心内容包括两个基本结论:
1, 根据可获得的所有公开信息,股价会迅速准确地进行调整——市场是很有效率的;
2, 股价变动的历史资料不包含任何对预测股价未来变动有用的信息——根据股价过去变动的信息不能预测股价的未来变动。
EMH的第一个结论实际上是亚当·斯密“看不见的手”在金融市场的延伸,它基于投资者都是“理性的”这一假定,进一步可以认为市场是处于均衡状态的(在“公平价格”上下波动)。第二个结论实际上是对20世纪三四十年代盛行的技术分析流派的反对,这与20世纪五六十年代大量对股票价格行为随机游走特性的研究有很大关系。萨谬尔森等人提出,股票价格遵循几何布朗运动,也就是说股票价格收益率
(对数收益率) 遵循随机游走 (独立同分布、有限方差的随机过程,序列自相关为0,没有记忆效应,方差随时间线性增长)
,其分布符合正态分布。如果股票价格是一个随机游走过程,那么预测自然是不可能的——这是一个充分条件。
一个常常被用于支持EMH的观点是:积极主动的投资者并不总是能击败“市场”。对于巴菲特等投资大师,EMH的支持者们则将之成功归功与偶然的运气。
诺贝尔奖得主保罗·A·萨缪尔森否认巴菲特有“才能”,说巴菲特们只是掷骰子、掷飞镖者,认为股市投资“只需闭上眼睛胡乱抓”就行。诺贝尔奖得主威廉·F·夏普也直截了当,说巴菲特只是个“3Σ事件——一个统计学上极小的概率,可以忽略不计。”
经济学家阿芝·A·阿尔奇说,投资大师们的成功“是运气不错,而不是天才。”另一个经济学家巴顿·G·麦基亚故弄玄虚地说:“虽然我相信存在这种优秀的投资经营者的可能性,但我必须强调,至今为止我们掌握的材料还不能证明这种人的确存在。”
在经济学家的理论中,很难容忍成功的投资大师的存在,就像投资大师理查德·H·德里豪斯所说:“我们是学术规则的例外,属于统计学偏差范围,我们可以忽略不计,好像我们根本就不存在。这是学术界给我们和巴菲特以及其他少数人的理论定性。因为我们给他们的理论造成了难堪,他们干脆就说我们不存在。”
O 对有效市场假说(EMH)的质疑
1, 经验研究发现了一些与EMH相悖的现象:规模效应,季节效应,小公司一月效应等。
规模效应:指股票收益率与公司大小有关。Banz是第一个发现规模效应的经济学家,他在1981年发现在美国,无论是总收益率还是风险调节后的收益率都与公司大小负相关。在Banz之后,经济学家们对各主要发达国家的市场进行了广泛检验,其中包括比利时、加拿大、日本、西班牙、法国等。除了加拿大和法国外,其它国家均存在规模效应。
季节效应:指股票收益率与时间有关。Rozeff和Kinney在1976年时发现,1904-1974年间纽约股票交易所的股价指数一月份的收益率明显高于其它11个月的收益率。Gultekin等1983年研究了17个国家1959-1979年的股票收益率,其中13个国家一月份的股票收益率高于其它月份。
  除元月效应以外,季节效应还包括周末效应、节日效应以及开盘、收盘效应等。季节效应也是在世界各国资本市场普遍存在的现象。有人对上海和深圳股票市场进行了周末效应检验,发现无论是深圳股票市场还是上海股票市场在所选取的样本区间内,股票报酬率最低均出现在每个月的第4个周一,从而证实我国股票市场也存在季节效应。
小公司一月效应:1983年Keim发现公司的规模与元月效应有密切的关系。他将纽约股票交易所的股票按规模分为10组,然后逐月算出规模最小的公司和规模最大的公司的超额收益率之差。一月份规模最小的公司比规模最大的公司的超额收益率高出14%左右。而且较高的收益率又主要集中在十二月底的最后一个交易日和一月的头5个交易日。
另外,关于股票收益率分布的经验研究发现其非正态性质:尖峰,胖尾。因此,Mandelbrot在上世纪60年代提出用Levy分布(又称为稳定Levy分布,稳定帕累托分布)拟合收益率分布(Levy分布是非线性系统一个常见的重要特征)。
2,对“理性投资者”假设的质疑:投机心理,从众心理,狂热和恐慌等等非理性行为在历史上是屡见不鲜的。对这一假设的质疑导致了行为金融学的产生。
3,EMH不能解释市场崩溃等现象:它是一个均衡模型。
O 分形市场假说
投资者对信息的反应机制——线性还是非线性?
EMH要求人们对信息及时准确的做出反应,实际情况则要复杂得多。过度反应和反应不足普遍存在,而且其效应可能长期持续;“羊群效应”等等。资本市场是一个复杂系统而不是一个线性的随机系统:投资者之间的相互影响(投机狂热和恐慌的传播),政府的干预。
市场稳定的基本条件——“流动性”
Peters认为,流动性是确保市场稳定的关键因素,它是投资者的共同需要。当缺少流动性的时候,投资者会急于接收他们所能接收的任何价格,不管公平与否——这将导致市场的崩溃。EMH假定总有足够的流动性,因此价格总是公平的,Peters认为这与事实相悖。
“流动性”的来源——不同的投资期限
市场中具有不同投资期限的投资者,投资者具有不同的信息集,不同投资者对“公平价格”的不同认识。
Peters指出,投资者不是同质的(Homogeneous):投资期限不同(长期,短期);投资策略不同(价值投资,技术分析);对投资回报的设定不同等等。因此,同一条信息的重要性很大程度上是由投资者的投资期限等因素决定,对不同投资者是不同的。
市场的分形结构:
市场中的投资者们具有不同的投资期限(investment
horizon),这为市场运行提供了具备流动性和稳定性的环境。例如:5分钟交易者遭受6西格玛事件时(价格下跌超过6倍标准差),具有较长投资期限的投资者将会跟进,从而稳定了市场。长期投资者之所以愿意这样做,是因为对于他的投资期限而言,5分钟交易者的6西格玛事件是很平常的。
进一步,不同期限的投资者必须享有同样的风险水平,否则这种市场结构不可能稳定存在,这就解释了为何不同投资期限的收益率分布是相同的。
因为以上讨论的市场情形具有“自相似”的统计结构,Peters把这种市场假说命名为分形市场假说(FMH).
FMH对市场崩溃的解释:
市场中分形结构崩溃时,市场变得不稳定。其原因可能是具有较长投资期限的投资者由于某种因素(战争,政治危机等)对未来的预期变得高度不确定,当价格下跌时,他们不愿意进入市场或者他们自己也变成短期投资者,这导致市场缺乏流动性而崩溃。
三,R/S分析等分析方法
Peters认为如果市场具有分形特征,而不是独立同分布的高斯系统,那么就需要引入新的统计方法。他提出R/S分析是一个很适合的方法。这是一个非参数方法,可以区分随机和非随机系统,发现趋势的延续,循环的长度等等。
O R/S分析的发展
R/S(Rescaled range, 重标级差)分析是赫斯特(Hurst,
1900-1978)提出的,他最初的目的是研究水库的存储能力问题,为此他需要考虑水库的水流量随时间的变化,以便制定每年应该放多少数量的水。一般水文学家假定水库的水流量是一个高斯随机过程,这对于处理复杂生态系统来说是一个常用的假设(因为系统有很大的自由度),但赫斯特从历史数据(丛622-1469年,共847年)中发现,水流量似乎不是随机的——它显示出持续性,并且有循环的特征,但是循环长度是非周期的。因此,Hurst发展了一套新的统计方法,也就是R/S分析。
(R/S分析的公式,略)
O R/S分析的用途之一:把时间序列划分为不同类型
对于任何一个时间序列,用R/S分析法可以计算出其赫斯特指数H(取值范围是[0,1]), 根据不同H值可以把时间序列划分为三个不同的类型。
H=0.5, 时间序列是一个独立过程(高斯随机游走是其中的一个特例);
0.5时间序列具有持续性,也就是说具有长期记忆的特征。如果序列在前一个期间是向上的,下一个期间很可能也是向上。
0,时间序列具有反持续性。这种时间序列比独立随机序列具有更强的突变性或易变性,频繁出现逆转。也就是说如果系统在前一个时期是向上走的,那么,在下一个时期多半是向下走的;如果前一个时期是向下的,则后一个时期多半会向上走。H的值越接近0系统越具备负相关性。
经验研究发现,经济系统中的大多数时间序列H>0.5, 表明其中具有长期记忆效应,并不遵循随机游走。
O R/S分析的用途之二:价格的有效预测区间的估计
金融时间序列中存在长期记忆,但这种记忆不是无限长的。这就如同自然分形和数学分形之间的关系:数学分形可以任意缩放,从无限小到无限大,然而自然分形受制于其物理特征,到了某一点就不能再缩放下去了。通过对不同市场的经验研究,可以得出这样一个基本结论:资本市场的时间序列具有长而有限的记忆特征,但各个市场不相同,各个品种之间也不相同。
O R/S分析的用途之三:发现“非周期循环”并确定循环长度
R/S方法尤其适于分析非线性系统中的非周期循环,并确定循环长度。
商品价格的波动具有“周期性”的规律,但这并不是真正的周期。真正的周期是一个可以严格用正弦波来描述的,但实际上,价格的波动表现出来的更多是一种具有周期特征的行为,但是没有确定的周期(用频谱分析等方法无法确定其周期长度),这是混沌系统的基本特征之一,可称之为“非周期循环”。非线性动力学理论指出,非周期循环有一个平均的循环长度,换言之,一个未来的循环长度是不确定的,但它大致应位于平均的循环长度附近。R/S分析可以帮助我们确定非周期循环的平均循环长度。
Peters研究发现,美国股票市场的循环长度大约是4年,债券市场大约是5年,美国工业生产也大约为5年。
O 对分形市场假说的评价:
虽然分形市场假说目前还很不成熟,但是它对资本市场中的某些明显的现象,比如自增强(自我放大)特征、泡沫经济现象等,似乎要比有效市场假说具有更大的潜在解释力。
有效市场假说本质上是一个均衡的情形,而分形市场假说认为市场存在不同的状态(例如分形结构的破坏导致崩溃),这实际上是一个非均衡的演化模式。
分形市场假说强调了市场流动性和投资者异质性的重要性,因为前者是市场稳定的前提,而后者是前者的保障。如果说在有效市场假说下,监管常常被人有时甚至是被政府本身置于投资行为的对立面的话(妨碍了“无形的手”),那么在分形市场理论之下,政府要致力于投资主体多元化的发展,致力于信息的公开和知识的完善。
四,使用混沌理论和非线性方法的一些投资公司
Panagora资产管理公司(Panagora Asset Management, Boston)
Peters在该公司任职,1985年成立,管理约150亿美元资产。该公司所用的模型是以线性回归为基础的,但非线性的研究为其提供了重要的帮助:用非线性分析方法评价所用模型的有效性;另外,用线性技术在短期内预测一个非线性系统是有可能的。
预测公司(the Prediction Company, Santa Fe)
该公司是使用非线性技术的投资公司中最有名的几个之一,因为其创始人是非线性和混沌理论领域公认的专家。他们使用的方法包括遗传算法,决策树,神经网罗和其他非线性回归方法。相信“市场收益率有随机的周期,后面跟随的是可预测的小块”。这是一家真正的数量分析投资公司,“交易完全是由模型管理的,没有认为干预”
TLB合伙公司(TLB Partners, New York)
这家公司使用神经网络,遗传算法和赫斯特指数等分析方法。改公司的领导者梅(C. May)是一个非线性科学的专家,他的投资期限大概是6-9个月。
LBS资本管理公司(LBS Capital Management, FLA)
该公司使用神经网络和遗传算法等非线性方法,管理着6亿美元。这是一家半数量分析公司,也就是说公司并不完全依赖模型,有时候会根据人为判断推翻模型的决策。