⑴ 电脑是怎样发明的
1672年1月,莱布尼兹搞出了一个木制的机器模型,向英国皇家学会会员们做了演示。但这个模型只能说明原理,不能正常运行。此后,为了加快研制计算机的进程,莱布尼兹在巴黎定居4年。在巴黎,他与一位著名钟表匠奥利韦合作。他只需对奥利韦作一些简单的说明,实际的制造工作就全部由这位钟表匠独自去完成。1974年,最后定型的那台机器,就是由奥利韦一人装配而成的。莱布尼兹的这台乘法机长约1米,宽30厘米,高25厘米。它由不动的计数器和可动的定位机构两部分组成。整个机器由一套齿轮系统来传动,它的重要部件是阶梯形轴,便于实现简单的乘除运算。
莱布尼兹设计的样机,先后在巴黎,伦敦展出。由于他在计算设备上的出色成就,被选为英国皇家学会会员。1700年,他被选为巴黎科学院院士。
莱布尼兹也是第一个认识到二进制记数法重要性的人,并系统地提出了二进制数的运算法则。二进制对200多年后计算机的发展产生了深远的影响。
莱布尼兹在法国定居时,同在华的传教士白晋有密切联系。白晋曾为康熙皇帝讲过数学课,他对中国的易经很感兴趣,曾在1701年寄给莱布尼兹两张易经图,其中一张就是有名的“伏羲六十四卦方位圆图”。莱布尼兹惊奇地发现,这六十四卦正好与64个二进制数相对应。莱布尼兹认为中国的八卦是世界上最早的二进制记数法。为此,他于1716年发表了《论中国的哲学》一文,专门讨论八卦与二进制,指出二进制与八卦有共同之处。
莱布尼兹非常向往和崇尚中国的古代文明,他把自己研制的乘法机的复制品赠送给中国皇帝康熙,以表达他对中国的敬意。
⑵ 电脑的原理,发展史。有的分享一下。
电子计算机(以下简称计算机)是一种根据一系列指令来对数据进行处理的机器。俗称“电脑”。
计算机种类繁多。实际来看,计算机总体上是处理信息的工具。根据图灵机理论,一部具有最基本功能的计算机应当能够完成任何其它计算机能做的事情。因此,只要不考虑时间和存储因素,从个人数字助理(PDA)到超级计算机都应该可以完成同样的作业。即是说,即使是设计完全相同的计算机,只要经过相应改装,就应该可以被用于从公司薪金管理到无人驾驶飞船操控在内的各种任务。由于科技的飞速进步,下一代计算机总是在性能上能够显著地超过其前一代,这一现象有时被称作“摩尔定律”。
计算机在组成上形式不一。早期计算机的体积足有一间房屋大小,而今天某些嵌入式计算机可能比一副扑克牌还小。当然,即使在今天,依然有大量体积庞大的巨型计算机为特别的科学计算或面向大型组织的事务处理需求服务。比较小的,为个人应用而设计的计算机称为微型计算机,简称微机。我们今天在日常使用“计算机”一词时通常也是指此。不过,现在计算机最为普遍的应用形式却是嵌入式的。嵌入式计算机通常相对简单,体积小,并被用来控制其它设备—无论是飞机,工业机器人还是数码相机。
上述对于电子计算机的定义包括了许多能计算或是只有有限功能的特定用途的设备。然而当说到现代的电子计算机,其最重要的特征是,只要给予正确的指示,任何一台电子计算机都可以模拟其他任何计算机的行为(只受限于电子计算机本身的存储容量和执行的速度)。据此,现代电子计算机相对于早期的电子计算机也被称为通用型电子计算机。
历史
ENIAC 是电脑发展史上的一个里程碑本来,计算机的英文原词"computer" 是指从事数据计算的人。而他们往往都需要借助某些机械计算设备或模拟计算机。这些早期计算设备的祖先包括有算盘,以及可以追溯到公元前87年的被古希腊人用于计算行星移动的Antikythera mechanism。随着中世纪末期欧洲数学与工程学的再次繁荣,Wilhelm Schickard于1623 年率先研制出了欧洲第一台计算设备。
1801年,Joseph Marie Jacquard对织布机的设计进行了改进,其中他使用了一系列打孔的纸卡片来作为编织复杂图案的程序。Jacquard 式织布机,尽管并不被认为是一台真正的计算机,但是它的出现确实是现代计算机发展过程中重要的一步。
查尔斯・巴比奇(Charles Babbage)是构想和设计一台完全可编程计算机的第一人,当时是1820年。但由于技术条件,经费限制,以及无法忍耐对设计不停的修补,这台计算机在他有生之年始终未能问世。约到19世纪晚期,许多后来被证明对计算机科学有着重大意义的技术相继出现,包括打孔卡片以及真空管。Hermann Hollerith设计了一台制表用的机器,就实现了应用打孔卡片的大规模自动数据处理。
在20世纪前半叶,为了迎合科学计算的需要,许许多多单一用途的并不断深化复杂的模拟计算机被研制出来。这些计算机都是用它们所针对的特定问题的机械或电子模型作为计算基础。20世纪3,40年代,计算机的性能逐渐强大并且通用性得到提升,现代计算机的关键特色被不断地加入进来。
克劳德・香农(Claude Shannon)于1937年发表了他的伟大论文《对继电器和开关电路中的符号分析》,文中首次提及数字电子技术的应用。他向人们展示了如何使用开关来实现逻辑和数学运算。此后,他通过研究Vannevar Bush的微分模拟器进一步巩固了他的想法。这是一个标志着二进制电子电路设计和逻辑门应用开始的重要时刻,而作为这些关键思想诞生的先驱,应当包括:Almon Strowger,他为一个含有逻辑门电路的设备申请了专利;尼古拉・特斯拉(Nikola Tesla),他早在1898年就曾申请含有逻辑门的电路设备;Lee De Forest,于1907年他用真空管代替了继电器。
沿着这样一条上下求索的漫漫长途去定义所谓的“第一台电子计算机”可谓相当困难。1941年5月12日,Konrad Zuse完成了他的机电共享设备“Z3”,这是第一台具有自动二进制数学计算特色以及可行的编程功能的计算机,但还不是“电子”计算机。此外,其他值得注意的成就主要有:1941年夏天诞生的Atanasoff-Berry计算机,这是一台具有特定意图的计算机,但它使用了真空管计算器,二进制数值,可复用内存;在英国于1943年被展示的神秘的巨像计算机(Colossus computer),尽管编程能力极其有限,但是它的的确确告诉了人们使用真空管既值得信赖又能实现电气化的再编程;哈佛大学的Harvard Mark I;以及基于二进制的“埃尼爱克”(ENIAC,1944年),这是第一台通用意图的计算机,但由于其结构设计不够弹性化,导致对它的每一次再编程都意味着电气物理线路的再连接。
开发埃尼爱克的小组针对其缺陷又进一步完善了设计,并最终呈现出今天我们所熟知的冯・诺伊曼体系结构(程序存储体系结构)。这个体系是当今所有计算机的基础。20世纪40年代中晚期,大批基于此一体系的计算机开始被研制,其中以英国最早。尽管第一台研制完成并投入运转的是“小规模实验机”(Small-Scale Experimental Machine,SSEM),但真正被开发出来的实用机很可能是EDSAC。
在整个20世纪50年代,真空管计算机居于统治地位。到了60年代,晶体管计算机将其取而代之。晶体管体积更小,速度更快,价格更加低廉,性能更加可靠,这使得它们可以被商品化生产。到了70年代,集成电路技术的引入极大地降低了计算机生产成本,计算机也从此开始走向千家万户。
[编辑] 原理
个人电脑的主要结构:
显示器
主板
CPU (微处理器)
主要储存器 (内存)
扩充卡
电源供应器
光驱
次要储存器 (硬盘)
键盘
鼠标
尽管计算机技术自20世纪40年代第一台电子通用计算机诞生以来以来有了令人目眩的飞速发展,但是今天计算机仍然基本上采用的是存储程序结构,即冯・诺伊曼体系结构。这个结构实现了实用化的通用计算机。
存储程序结构间将一台计算机描述成四个主要部分:算术逻辑单元(ALU),控制电路,存储器,以及输入输出设备(I/O)。这些部件通过一组一组的排线连接(特别地,当一组线被用于多种不同意图的数据传输时又被称为总线),并且由一个时钟来驱动(当然某些其他事件也可能驱动控制电路)。
概念上讲,一部计算机的存储器可以被视为一组“细胞”单元。每一个“细胞”都有一个编号,称为地址;又都可以存储一个较小的定长信息。这个信息既可以是指令(告诉计算机去做什么),也可以是数据(指令的处理对象)。原则上,每一个“细胞”都是可以存储二者之任一的。
算术逻辑单元(ALU)可以被称作计算机的大脑。它可以做两类运算:第一类是算术运算,比如对两个数字进行加减法。算术运算部件的功能在ALU中是十分有限的,事实上,一些ALU根本不支持电路级的乘法和除法运算(由是使用者只能通过编程进行乘除法运算)。第二类是比较运算,即给定两个数,ALU对其进行比较以确定哪个更大一些。
输入输出系统是计算机从外部世界接收信息和向外部世界反馈运算结果的手段。对于一台标准的个人电脑,输入设备主要有键盘和鼠标,输出设备则是显示器,打印机以及其他许多后文将要讨论的可连接到计算机上的I/O设备。
控制系统将以上计算机各部分联系起来。它的功能是从存储器和输入输出设备中读取指令和数据,对指令进行解码,并向ALU交付符合指令要求的正确输入,告知ALU对这些数据做那些运算并将结果数据返回到何处。控制系统中一个重要组件就是一个用来保持跟踪当前指令所在地址的计数器。通常这个计数器随着指令的执行而累加,但有时如果指令指示进行跳转则不依此规则。
20世纪80年代以来ALU和控制单元(二者合成中央处理器,CPU)逐渐被整合到一块集成电路上,称作微处理器。这类计算机的工作模式十分直观:在一个时钟周期内,计算机先从存储器中获取指令和数据,然后执行指令,存储数据,再获取下一条指令。这个过程被反复执行,直至得到一个终止指令。
由控制器解释,运算器执行的指令集是一个精心定义的数目十分有限的简单指令集合。一般可以分为四类:1)、数据移动(如:将一个数值从存储单元A拷贝到存储单元B)2)、数逻运算(如:计算存储单元A与存储单元B之和,结果返回存储单元C)3)、条件验证(如:如果存储单元A内数值为100,则下一条指令地址为存储单元F)4)、指令序列改易(如:下一条指令地址为存储单元F)
指令如同数据一样在计算机内部是以二进制来表示的。比如说,10110000就是一条Intel x86系列微处理器的拷贝指令代码。某一个计算机所支持的指令集就是该计算机的机器语言。因此,使用流行的机器语言将会使既成软件在一台新计算机上运行得更加容易。所以对于那些机型商业化软件开发的人来说,它们通常只会关注一种或几种不同的机器语言。
更加强大的小型计算机,大型计算机和服务器可能会与上述计算机有所不同。它们通常将任务分担给不同的CPU来执行。今天,微处理器和多核个人电脑也在朝这个方向发展。
超级计算机通常有着与基本的存储程序计算机显著区别的体系结构。它们通常由者数以千计的CPU,不过这些设计似乎只对特定任务有用。在各种计算机中,还有一些微控制器采用令程序和数据分离的哈佛体系结构(Harvard architecture)。
[编辑] 计算机的数字电路实现
以上所说的这些概念性设计的物理实现是多种多样的。如同我们所前述所及,一台存储程序式计算机既可以是巴比奇的机械式的,也可以是基于数字电子的。但是,数字电路可以通过诸如继电器之类的电子控制开关来实现使用2进制数的算术和逻辑运算。香农的论文正是向我们展示了如何排列继电器来组成能够实现简单布尔运算的逻辑门。其他一些学者很快指出使用真空管可以代替继电器电路。真空管最初被用作无线电电路中的放大器,之后便开始被越来越多地用作数字电子电路中的快速开关。当电子管的一个针脚被通电后,电流就可以在另外两端间自由通过。
通过逻辑门的排列组合我们可以设计完成很多复杂的任务。举例而言,加法器就是其中之一。该器件在电子领域实现了两个数相加并将结果保存下来—在计算机科学中这样一个通过一组运算来实现某个特定意图的方法被称做一个算法。最终,人们通过数量可观的逻辑门电路组装成功了完整的ALU和控制器。说它数量可观,只需看一下CSIRAC这台可能是最小的实用化电子管计算机。该机含有2000个电子管,其中还有不少是双用器件,也即是说总计合有2000到4000个逻辑器件。
真空管对于制造规模庞大的门电路明显力不从心。昂贵,不稳(尤其是数量多时),臃肿,能耗高,并且速度也不够快—尽管远超机械开关电路。这一切导致20世纪60年代它们被晶体管取代。后者体积更小,易于操作,可靠性高,更省能耗,同时成本也更低。
集成电路是现今电子计算机的基础20世纪60年代后,晶体管开始逐渐为将大量晶体管、其他各种电器元件和连接导线安置在一片硅板上的集成电路所取代。70年代,ALU和控制器作为组成CPU的两大部分,开始被集成到一块芯片上,并称为“微处理器”。沿着集成电路的发展史,可以看到一片芯片上所集成器件的数量有了飞速增长。第一块集成电路只不过包含几十个部件,而到了2006年,一块Intel Core Duo 处理器上的晶体管数目高达一亿五千一百万之巨。
无论是电子管,晶体管还是集成电路,它们都可以通过使用一种触发器设计机制来用作存储程序体系结构中的“存储”部件。而事实上触发器的确被用作小规模的超高速存储。但是,几乎没有任何计算机设计使用触发器来进行大规模数据存储。最早的计算机是使用Williams电子管向一个电视屏或若干条水银延迟线(声波通过这种线时的走行速度极为缓慢足够被认为是“存储”在了上面)发射电子束然后再来读取的方式来存储数据的。当然,这些尽管有效却不怎么优雅的方法最终还是被磁性存储取而代之。比如说磁芯存储器,代表信息的电流可在其中的铁质材料内制造恒久的弱磁场,当这个磁场再被读出时就实现了数据恢复。动态随机存储器(DRAM)亦被发明出来。它是一个包含大量电容的集成电路,而这些电容器件正是负责存储数据电荷—电荷的强度则被定义为数据的值。
[编辑] 输入输出设备
输入输出设备(I/O)是对将外部世界信息发送给计算机的设备和将处理结果返回给外部世界的设备的总称。这些返回结果可能是作为使用者能够视觉上体验的,或是作为该计算机所控制的其他设备的输入:对于一台机器人,控制计算机的输出基本上就是这台机器人本身,如做出各种行为。
第一代计算机的输入输出设备种类非常有限。通常的输入用设备是打孔卡片的读卡机,用来将指令和数据导入内存;而用于存储结果的输出设备则一般是磁带。随着科技的进步,输入输出设备的丰富性得到提高。以个人计算机为例:键盘和鼠标是用户向计算机直接输入信息的主要工具,而显示器、打印机、扩音器、耳机则返回处理结果。此外还有许多输入设备可以接受其他不同种类的信息,如数码相机可以输入图像。在输入输出设备中,有两类很值得注意:第一类是二级存储设备,如硬盘,[[光盘]]或其他速度缓慢但拥有很高容量的设备。第二个是计算机网络访问设备,通过他们而实现的计算机间直接数据传送极大地提升了计算机的价值。今天,国际互联网成就了数以千万计的计算机彼此间传送各种类型的数据。
[编辑] 程序
简单说,计算机程序就是计算机执行指令的一个序列。它既可以只是几条执行某个简单任务的指令,也可能是可能要操作巨大数据量的复杂指令队列。许多计算机程序包含有百万计的指令,而其中很多指令可能被反复执行。在2005年,一台典型的PC机可以每秒执行大约30亿条指令。计算机通常并不会执行一些很复杂的指令来获得额外的机能,更多地它们是在按照程序员的排列来运行那些较简单但为数众多的短指令。
一般情况下,程序员们是不会直接用机器语言来为计算机写入指令的。那么做的结果只能是费时费力、效率低下而且漏洞百出。所以,程序员一般通过“高级”一些的语言来写程序,然后再由某些特别的计算机程序,如解释器或编译器将之翻译成机器语言。一些编程语言看起来很接近机器语言,如汇编程序,被认为是低级语言。而另一些语言,如即如抽象原则的Prolog,则完全无视计算机实际运行的操作细节,可谓是高级语言。对于一项特定任务,应该根据其事务特点,程序员技能,可用工具和客户需求来选择相应的语言,其中又以客户需求最为重要(美国和中国军队的工程项目通常被要求使用Ada语言)。
计算机软件是与计算机程序并不相等的另一个词汇。计算机软件一个较为包容性较强的技术术语,它包含了用于完成任务的各种程序以及所有相关材料。举例说,一个视频游戏不但只包含程序本身,也包括图片、声音以及其他创造虚拟游戏环境的数据内容。在零售市场,在一台计算机上的某个应用程序只是一个面向大量用户的软件的一个副本。这里老生常谈的例子当然还是微软的office软件组,它包括一些列互相关联的、面向一般办公需求的程序。
利用那些极其简单的机器语言指令来实现无数功能强大的应用软件意味着其编程规模注定不小。Windows XP这个操作系统程序包含的C++高级语言源代码达到了4000万行。当然这还不是最大的。如此庞大的软件规模也显示了管理在开发过程中的重要性。实际编程时,程序会被细分到每一个程序员都可以在一个可接受的时长内完成的规模。
即便如此,软件开发的过程仍然进程缓慢,不可预见且遗漏多多。应运而生的软件工程学就重点面向如何加快作业进度和提高效率与质量。
[编辑] 库与操作系统
在计算机诞生后不久,人们发现某些特定作业在许多不同的程序中都要被实施,比如说计算某些标准数学函数。出于效率考量,这些程序的标准版本就被收集到一个“库”中以供各程序调用。许多任务经常要去额外处理种类繁多的输入输出接口,这时,用于连接的库就能派上用场。
20世纪60年代,随着计算机工业化普及,计算机越来越多地被用作一个组织内不同作业的处理。很快,能够自动安排作业时续和执行的特殊软件出现了。这些既控制硬件又负责作业时序安排的软件被称为“操作系统”。一个早期操作系统的例子是IBM的OS/360。
在不断地完善中,操作系统又引入了时间共享机制——并发。这使得多个不同用户可以“同时”地使用机器执行他们自己的程序,看起来就像是每个人都有一台自己的计算机。为此,操作系统需要像每个用户提供一台“虚拟机”来分离各个不同的程序。由于需要操作系统控制的设备也在不断增加,其中之一便是硬盘。因之,操作系统又引入了文件管理和目录管理(文件夹),大大简化了这类永久储存性设备的应用。此外,操作系统也负责安全控制,确保用户只能访问那些已获得允许的文件。
当然,到目前为止操作系统发展历程中最后一个重要步骤就是为程序提供标准图形用户界面(GUI)。尽管没有什么技术原因表明操作系统必须得提供这些界面,但操作系统供应商们总是希望并鼓励那些运行在其系统上的软件能够在外观和行为特征上与操作系统保持一致或相似。
除了以上这些核心功能,操作系统还封装了一系列其他常用工具。其中一些虽然对计算机管理并无重大意义,但是于用户而言很是有用。比如,苹果公司的Mac OS X就包含视频剪辑应用程序。
一些用于更小规模的计算机的操作系统可能没用如此众多的功能。早期的微型计算机由于内存和处理能力有限而不会提供额外功能,而嵌入式计算机则使用特定化了的操作系统或者干脆没有,它们往往通过应用程序直接代理操作系统的某些功能。
[编辑] 应用
由电脑控制的机械在工业中十分常见 很多现代大量生产的玩具,如Furby,是不能没有便宜的嵌入式处理器
起初,体积庞大而价格昂贵的数字计算机主要是用做执行科学计算,特别是军用课题。如ENIAC最早就是被用作火炮弹道计算和设计氢弹时计算断面中子密度的(如今许多超级计算机仍然在模拟核试验方面发挥着巨大作用)。澳大利亚设计的首台存储程序计算机CSIR Mk I型负责对水电工程中的集水地带的降雨情形进行评估。还有一些被用于解密,比如英国的“巨像”可编程计算机。除去这些早年的科学或军工应用,计算机在其他领域的推广亦十分迅速。
从一开始,存储程序计算机就与商业问题的解决息息相关。早在IBM的第一台商用计算机诞生之前,英国J. Lyons等就设计制造了LEO以进行资产管理或迎合其他商业用途。由于持续的体积与成本控制,计算机开始向更小型的组织内普及。加之20世纪70年代微处理器的发明,廉价计算机成为了现实。80年代,个人计算机全面流行,电子文档写作与印刷,计算预算和其他重复性的报表作业越来越多地开始依赖计算机。
随着计算机便宜起来,创作性的艺术工作也开始使用它们。人们利用合成器,计算机图形和动画来创作和修改声音,图像,视频。视频游戏的产业化也说明了计算机在娱乐方面也开创了新的历史。
计算机小型化以来,机械设备的控制也开始仰仗计算机的支持。其实,正是当年为了建造足够小的嵌入式计算机来控制阿波罗宇宙飞船才刺激了集成电路技术的跃进。今天想要找一台不被计算机控制的有源机械设备要比找一台哪怕是部分计算机控制的设备要难得多。可能最著名的计算机控制设备要非机器人莫属,这些机器有着或多或少人类的外表和并具备人类行为的某一子集。在批量生产中,工业机器人已是寻常之物。不过,完全的拟人机器人还只是停留在科幻小说或实验室之中。
机器人技术实质上是人工智能领域中的物理表达环节。所谓人工智能是一个定义模糊的概念但是可以肯定的是这门学科试图令计算机拥有目前它们还没有但作为人类却固有的能力。数年以来,不断有许多新方法被开发出来以允许计算机做那些之前被认为只有人才能做的事情。比如读书、下棋。然而,到目前为止,在研制具有人类的一般“整体性”智能的计算机方面,进展仍十分缓慢。
[编辑] 网络、国际互联网
20世纪50年代以来计算机开始用作协调来自不同地方之信息的工具,美国军方的贤者系统(SAGE)就是这方面第一个大规模系统。之后“军刀”等一系列特殊用途的商业系统也不断涌现出来。
70年代后,美国各大院校的计算机工程师开始使用电信技术把他们的计算机连接起来。由于这方面的工作得到了ARPA的赞助,其计算机网络也就被称为ARPANET。此后,用于ARPA网的技术快速扩散和进化,这个网络也冲破大学和军队的范围最终形成了今天的国际互联网(Internet)。网络的出现导致了对计算机属性和边界的再定义。太阳微系统公司的John Gage 和 Bill Joy就指出:“网络即是计算机”。计算机操作系统和应用程序纷纷向能访问诸如网内其它计算机等网络资源的方向发展。最初这些网络设备仅限于为高端科学工作者所使用,但90年代后随着电子邮件和万维网(World Wide Web)技术的扩散,以及以太网和ADSL等网络连接技术的廉价化,互联网络已变得无所不在。今日入网的计算机总数,何以千万计;无线互联技术的普及,使得互联网在移动计算环境中亦如影随形。比如在笔记本计算机上广泛使用的Wi-Fi技术就是无线上网的代表性应用。
[编辑] 下一代计算机
尽管自问世以来数字计算机在速度和能力上有了可观的提升,迄今仍有不少课题显得超出了当前计算机的能力所及。对于其中一部分课题,传统计算机是无论如何也不可能实现的,因为找到一个解决方法的时间还赶不上问题规模的扩展速度。因此,科学家开始将目光转向生物计算技术和量子理论来解决这一类问题。比如,人们计划用生物性的处理来解决特定问题(DNA计算)。由于细胞分裂的指数级增长方式,DNA计算系统很有可能具备解决同等规模问题的能力。当然,这样一个系统直接受限于可控制的DNA总量。
量子计算机,顾名思义,利用了量子物理世界的超常特性。一旦能够造出量子计算机,那么它在速度上的提升将令一般计算机难以望其项背。当然,这种涉及密码学和量子物理模拟的下一代计算机还只是停留在构想阶段。
上述的计算机目前都还未成型,并且即使成功制造出来,它们也很有可能只会被用作解决那些普通计算机无法解决的问题。
[编辑] 计算机学科
在当今世界,几乎所有专业都与计算机息息相关。但是,只有某些特定职业和学科才会深入研究计算机本身的制造、编程和使用技术。用来诠释计算机学科内不同研究领域的各个学术名词的涵义不断发生变化,同时新学科也层出不穷。
计算机工程学 是电子工程的一个分支,主要研究计算机软硬件和二者间的彼此联系。
计算机科学 是对计算机进行学术研究的传统称谓。主要研究计算技术和执行特定任务的高效算法。该门学科为我们解决确定一个问题在计算机领域内是否可解,如可解其效率如何,以及如何作成更加高效率的程序。时至今日,在计算机科学内已经衍生了许多分支,每一个分支都针对不同类别的问题进行深入研究。
软件工程学 着重于研究开发高质量软件系统的方法学和实践方式,并试图压缩并预测开发成本及开发周期。
信息系统 研究计算机在一个广泛的有组织环境(商业为主)中的计算机应用。
许多学科都与其他学科相互交织。如地理信息系统专家就是利用计算机技术来管理地理信息。
全球有三个较大规模的致力于计算机科学的组织:英国计算机协会 (BCS);美国计算机协会(ACM);美国电气电子工程师协会(IEEE)。
⑶ 电脑事根据什么发明的
计算机(computer)的原来意义是“计算器”,也就是说,人类会发明计算机,最初的目的是帮助处理复杂的数字运算。而这种人工计算器的概念,最早可以追溯到十七世纪的法国大思想家帕斯卡。帕斯卡的父亲担任税务局长,当时的币制不是十进制,在计算上非常麻烦。帕斯卡为了协助父亲,利用齿轮原理,发明了第一台可以执行加减运算计算器 。后来,德国数学家莱布尼兹加以改良,发明了可以做乘除运算的计算器。之后虽然在计算器的功能上多所改良与精进,但是,真正的电动计算器,却必须等到公元1944年才制造出来。
而第一部真正可以称得上计算机的机器,则诞生于1946年的美国,毛琪利与爱克特发明的,名字叫做ENIAC。这部计算机使用真空管来处理讯号,所以体积庞大(占满一个房间)、耗电量高(使用时全镇的人都知道,因为家家户户的电灯都变暗了!),而且记忆容量又非常低(只有100多个字),但是,却已经是人类科技的一大进展。而我们通常把这种使用真空管的计算机称为第一代计算机。
第一代的电脑有2间教室大,跟现在我们一般用的个人电脑体积差很多吧。 当时的电脑零件是真空管(现在已经找不到了) 而存档的东西是一种打孔卡片,若没有前人的设计概念,也没有计算机的发明,所以计算机是谁发明的还有点难界定
⑷ 电脑是谁发明的原理是撒
冯·诺依曼(John Von Neumann , 1903-1957)是电子计算机的发明人,他历来被誉为“电子计算机之父”。
电子计算机(以下简称计算机)是一种根据一系列指令来对数据进行处理的机器。俗称“电脑”。
计算机种类繁多。实际来看,计算机总体上是处理信息的工具。根据图灵机理论,一部具有最基本功能的计算机应当能够完成任何其它计算机能做的事情。因此,只要不考虑时间和存储因素,从个人数字助理(PDA)到超级计算机都应该可以完成同样的作业。即是说,即使是设计完全相同的计算机,只要经过相应改装,就应该可以被用于从公司薪金管理到无人驾驶飞船操控在内的各种任务。由于科技的飞速进步,下一代计算机总是在性能上能够显著地超过其前一代,这一现象有时被称作“摩尔定律”。
计算机在组成上形式不一。早期计算机的体积足有一间房屋大小,而今天某些嵌入式计算机可能比一副扑克牌还小。当然,即使在今天,依然有大量体积庞大的巨型计算机为特别的科学计算或面向大型组织的事务处理需求服务。比较小的,为个人应用而设计的计算机称为微型计算机,简称微机。我们今天在日常使用“计算机”一词时通常也是指此。不过,现在计算机最为普遍的应用形式却是嵌入式的。嵌入式计算机通常相对简单,体积小,并被用来控制其它设备—无论是飞机,工业机器人还是数码相机。
上述对于电子计算机的定义包括了许多能计算或是只有有限功能的特定用途的设备。然而当说到现代的电子计算机,其最重要的特征是,只要给予正确的指示,任何一台电子计算机都可以模拟其他任何计算机的行为(只受限于电子计算机本身的存储容量和执行的速度)。据此,现代电子计算机相对于早期的电子计算机也被称为通用型电子计算机。
⑸ 电脑是怎么发明出来的!
世界上第一部【电脑】是由美国人马其里与艾克特1946 年发明的计算机(computer)的原来意义是“计算器”,也就是说,人类会发明计算机,最初的目的是帮助处理复杂的数字运算。而这种人工计算器的概念,最早可以追溯到十七世纪的法国大思想家帕斯卡。帕斯卡的父亲担任税务局长,当时的币制不是十进制,在计算上非常麻烦。帕斯卡为了协助父亲,利用齿轮原理,发明了第一台可以执行加减运算计算器 。后来,德国数学家莱布尼兹加以改良,发明了可以做乘除运算的计算器。之后虽然在计算器的功能上多所改良与精进,但是,真正的电动计算器,却必须等到公元1944年才制造出来。 而第一部真正可以称得上计算机的机器,则诞生于1946年的美国,毛琪利与爱克特发明的,名字叫做ENIAC。这部计算机使用真空管来处理讯号,所以体积庞大(占满一个房间)、耗电量高(使用时全镇的人都知道,因为家家户户的电灯都变暗了!),而且记忆容量又非常低(只有100多个字),但是,却已经是人类科技的一大进展。而我们通常把这种使用真空管的计算机称为第一代计算机。 第一代的电脑有2间教室大,跟现在我们一般用的个人电脑体积差很多吧。 当时的电脑零件是真空管(现在已经找不到了) 而存档的东西是一种打孔卡片,若没有前人的设计概念,也没有计算机的发明,所以计算机是谁发明的还有点难界定。
希望对你有帮助,望采纳,谢谢
⑹ 关于电脑的发明过程
计算机(computer)的原来意义是“计算器”,也就是说,人类会发明计算机,最初的目的是帮助处回理复杂的数字运算。答而这种人工计算器的概念,最早可以追溯到十七世纪的法国大思想家帕斯卡。帕斯卡的父亲担任税务局长,当时的币制不是十进制,在计算上非常麻烦。帕斯卡为了协助父亲,利用齿轮原理,发明了第一台可以执行加减运算计算器 。后来,德国数学家莱布尼兹加以改良,发明了可以做乘除运算的计算器。之后虽然在计算器的功能上多所改良与精进,但是,真正的电动计算器,却必须等到公元1944年才制造出来。
⑺ 计算机的发明过程
电脑(Computer)是一种利用电子学原理根据一系列指令来对数据进行处理的机器。电脑可以分为两部分:软件系统和硬件系统。第一台电脑ENIAC于1946年2月15日宣告诞生。
1946年2月15日,世界上第一台通用电子数字计算机“埃尼阿克”(ENIAC)宣告研制成功。“埃尼阿克”的成功,是计算机发展史上的一座纪念碑,是人类在发展计算技术的历程中,到达的一个新的起点。“埃尼阿克”计算机的最初设计方案,是由36岁的美国工程师莫奇利于1943年提出的,计算机的主要任务是分析炮弹轨道。美国军械部拨款支持研制工作,并建立一个专门研究小组,由莫奇利负责。总工程师由年仅24岁的埃克特担任,组员格尔斯坦是位数学家,另外还有逻辑学家勃克斯。“埃尼阿克”共使用了18000个电子管,另加1500个继电器以及其它器件,其总体积约90立方米,重达30吨,占地170平方米,需要用一间30多米长的大房间才能存放,是个地地道道的庞然大物。 这台每小时耗电量为140千瓦时的计算机,运算速度为每秒5000次加法,或者400次乘法,比机械式的继电器计算机快1000倍。当“埃尼阿克”公开展出时,一条炮弹的轨道用20秒钟就算出来,比炮弹本身的飞行速度还快。埃尼阿克的存储器是电子装置,而不是靠转动的“鼓”。它能够在一天内完成几千万次乘法,大约相当于一个人用台式计算机操作40年的工作量。它是按照十进制,而不是按照二进制来操作。但其中也用少量以二进制方式工作的电子管,因此机器在工作中不得不把十进制转换为二进制,而在数据输入、输出时再变回十进制。 “埃尼阿克”最初是为了进行弹道计算而设计的专用计算机。但后来通过改变插入控制板里接线方式来解决各种不同的问题,而成为一台通用机。它的一种改型机曾用于氢弹的研制。“埃尼阿克”程序采用外部插入式,每当进行软件中心一项新的计算时,都要重新连接线路。有时几分钟或几十分钟的计算,要花几小时或1- 2天的时间进行线路连接准备,这是一个致命的弱点。它的另一个弱点是存储量太小。 1996年2月15日,在“埃尼阿克”问世50周年之际,美国副总统戈尔在宾夕法尼亚大学举行的隆重纪念仪式上,再次按动了这台已沉睡了40年的庞大电子计算机的启动电钮。戈尔在向当年参加“埃尼阿克”的研制、如今仍健在科学家发表讲话:“我谨向当年研制这台计算机的先驱者们表示祝贺。”埃尼阿克上的两排灯以准确的节闪烁到46,标志着它于1946年问世,然后又闪烁到96,标志计算机时代开始以来的50年。
⑻ 谁知道计算机的发明原理
计算机工作原理
电脑的工作原理跟电视、VCD机差不多,您给它发一些指令,它就会按您的意思执行某项功能。不过,您可知道,这些指令并不是直接发给您要控制的硬件,而是先通过前面提过的输入设备,如键盘、鼠标,接收您的指令,然后再由中央处理器(CPU)来处理这些指令,最后才由输出设备输出您要的结果。
现在,让我们用一道简单的计算题来回想一下人脑的工作方式。
题目很简单:8+4÷2=?
首先,我们得用笔将这道题记录在纸上,记在大脑中,再经过脑神经元的思考,结合我们以前掌握的知识,决定用四则运算规则和九九乘法口诀来处理,先用脑算出4÷2=2这一中间结果,并记录于纸上,然后再用脑算出8+2=10这一最终结果,并记录于纸上。
通过做这一简单运算题,我们发现一规律:首先通过眼、耳等感觉器官将捕捉的信息输送到大脑中并存储起来,然后对这一信息进行加工处理,再由大脑控制人把最终结果,以某种方式表达出来。
电脑正是模仿人脑进行工作的(这也是“电脑”名称的来源),其部件如输入设备、存储器、运算器、控制器、输出设备等分别与人脑的各种功能器官对应,以完成信息的输入、处理、输出。
TRIZ 是“发明问题解决理论”,由“Theory of Inventive Problem Solving”之俄文原文单词首字母组成,在欧美国家也可缩写为TIPS。其研究始于1946年,由原苏联的大学、研究所和企业所组成的数百人的研究组织分析研究了世界近250万件发明专利,综合多个学科领域的原理、法则形成了TRIZ理论体系。其主要目的是研究人类进行发明创造、解决技术难题过程中所遵循的科学原理和法则。并将之归纳总结,形成能指导实际新产品开发的理论方法体系。运用这一理论,可大大加快人们创造发明的进程而且能得到高质量的创新产品。
任何领域的产品改进、技术的变革、创新和生物系统一样,都存在产生、生长、成熟、衰老、灭亡的过程,是有规律可循的。人们如果掌握了这些规律,就能能动地进行产品设计并能预测产品的未来发展趋势。发明问题解决理论TRIZ通过分析人类已有技术创新成果———高水平发明专利,总结出技术系统发展进化的客观规律,并形成指导人们进行发明创新、解决工程问题的系统化的方法学体系。
一、TRIZ 理论——创新的科学
实践证明,一旦发现和掌握了发明创造的内在规律,形成一种科学理论,那么实现创新就可以象求解数学题一样,变得有序可寻,富有可操作性和可预见性,创新质量和效率也会大大提高。基于这一理念,前苏联著名发明家G.S.Altshuller于1946年提出了著名的创新理论——发明问题解决理论,俄文缩写为TRIZ。
Altshuller及其合作者在大量专利分析的基础上,总结出各种技术发展进化遵循的规律模式,以及解决各种工程矛盾的创新原理和法则,构建了TRIZ理论。可以说TRIZ理论是人类已有科技知识与创新思维规律、方法的完美结合。它是对人类创新活动规律和原理更深入和系统的揭示,为更好的创新提供了坚实的理论和方法基础,是认识和推动人类创新活动的一个突破性成果。
二、TRIZ理论核心思想和基本特征
TRIZ理论的核心思想主要体现在三个方面。首先,无论是一个简单产品还是复杂的技术系统,其核心技术的发展都是遵循着客观的规律发展演变的,即具有客观的进化规律和模式。其次,各种技术难题、冲突和矛盾的不断解决是推动这种进化过程的动力。再就是技术系统发展的理想状态是用最少的资源实现最大数目的功能。
相对于传统的创新方法,TRIZ理论具有鲜明的特点和优势。它成功地揭示了创造发明的内在规律和原理,快速确认和解决系统中存在的矛盾,而且它是基于技术的发展进化规律研究整个产品发展过程。因此,运用TRIZ理论可大大加快发明创造的进程,提升产品创新水平。具体来说它可以帮助我们:
1. 对问题情境进行系统的分析,快速发现问题的本质,准确定义创新性问题和矛盾。
2. 对创新性问题或者矛盾提供更合理的解决方案和更好的创意。
3. 打破思维定势,激发创新思维,从更广的视角看待问题。
4. 基于技术系统进化规律准确确定探索方向,预测未来发展趋势,开发新产品。
5. 打破知识领域界限,实现技术突破。
三、TRIZ理论主要内容
创新从最通俗的意义上讲就是创造性地发现问题和创造性地解决问题的过程,TRIZ理论的强大作用正在于它为人们创造性地发现问题和解决问题提供了系统的理论和方法工具。
TRIZ理论体系目前主要包括以下几个方面的内容:
1. 创新思维方法与问题分析方法
TRIZ理论中提供了如何系统分析问题的科学方法,如多屏幕法。而对于复杂问题的分析,它包含了科学的问题分析建模方法——物场分析法,它可以帮助快速确认核心问题,发现根本矛盾所在。
2. 技术系统进化法则
针对技术系统进化演变规律,在大量专利分析的基础上TRIZ理论总结提炼出八个基本进化法则。利用这些进化法则,可以分析确认当前产品的技术状态,并预测未来发展趋势,开发富有竞争力的新产品。
3. 工程矛盾解决原理
不同的发明创造往往遵循共同的规律。TRIZ理论将这些共同的规律归纳成40个发明原理与11个分离原理,针对具体的矛盾,可以基于这些创新原理寻求具体解决方案。
4. 发明问题标准解法
针对具体问题物场模型的不同特征,分别对应有标准的模型处理方法,包括模型的修整、转换、物质与场的添加,等等。
5. 发明问题解决算法ARIZ
主要针对问题情境复杂,矛盾及其相关部件不明确的技术系统。它是一个对初始问题进行一系列变形及再定义等非计算性的逻辑过程,实现对问题的逐步深入分析,问题转化,直到问题解决。
四、TRIZ理论研究与应用
TRIZ理论以其良好的可操作性、系统性和实用性在全球的创新和创造学研究领域占据着独特的地位。在经历了理论创建与理论体系的内部集成后,TRIZ理论正处于其自身的进一步完善与发展,以及与其它先进创新理论方法的集成阶段,尤其是已成为最有效的计算机辅助创新技术和创新问题求解的理论与方法基础。
经过半个多世纪的发展,TRIZ理论已经发展成为一套解决新产品开发实际问题的成熟的理论和方法体系,它实用性强,并经过实践检验,应用领域也从工程技术领域扩展到管理、社会等方面。现在TRIZ理论在西方工业国家受到极大重视,TRIZ的研究与实践得以迅速普及和发展。如今它已为众多知名企业取得了重大的效益。
⑼ 电脑是怎么发明的
电脑的英文名称是,学名就是计算机,我们普通用户常用的被称为PC(Personal Computer),即个人计算机。计算机是一种能够按照指令对各种数据和信息进行自动加工和处理的电子设备,起初的设计思想只是为了解决日常工作中一些复杂的方程计算问题。
1939年时,时任美国爱荷华州立大学物理学教授的约翰·阿坦纳索夫(John Atanasoff),与克利福德·贝里(Clifford Berry)合作,研制出了第一台名为“ABC”(Atanasoff-Berry Computer)的计算机,不过由于种种原因,两人均未对这项划时代的发明申请专利,更没有进行深层次的研究。
1941年,宾西法尼亚大学的讲师莫科里(John Mauchly)在阿坦纳索夫家借住五天,借此机会,莫科里吸收了阿坦纳索夫的研究成果和想法。之后在美国军方的领导下,莫科里与埃克特(John Presper Eckert)一起负责在1946年制造出了名为“ENIAC”的机器,并申请了发明专利。
在“ENIAC”的研制后期,著名的美籍匈牙利数学家约翰·冯·诺依曼(John Von Nouma)加入了这项工程,并且提出了一系列优秀的设计思想,使得真正意义上的计算机“ENIAC”顺利诞生,书写了计算机发展史上的一个新的里程碑,冯·诺依曼也因此被尊称为“计算机之父”。
英国无线电工程师协会的蒙巴顿将军把“ENIAC”的出现誉为“诞生了一个电子的大脑”,“电脑”的名称由此流传开来。
不过在1973年,美国联邦法庭在经历了长时间的调查之后,判定现代计算机的基本想法是来自阿塔纳索夫,由此推翻并吊销了莫科里的专利,并且从法律上认定了阿塔纳索夫才是真正的现代计算机的发明人。由于阿塔纳索夫研制的计算机采用的是电子管,他也被尊称为“电子计算机之父”。
世界上第一台个人电脑由IBM公司于1981年推出,装配了英特尔公司的8088处理器和微软公司的DOS操作系统,现代人理念中的电脑由此开始走进了家庭。
上面是电脑的简单演化历史,关于硬件吗,不太清楚。
⑽ 电脑是谁发明的原理是撒
冯·诺依曼(John
Von
Neumann
,
1903-1957)是电子计算机的发明人,他历来被誉为“电子计算机之父”。
电子计算机(以下简称计算机)是一种根据一系列指令来对数据进行处理的机器。俗称“电脑”。
计算机种类繁多。实际来看,计算机总体上是处理信息的工具。根据图灵机理论,一部具有最基本功能的计算机应当能够完成任何其它计算机能做的事情。因此,只要不考虑时间和存储因素,从个人数字助理(PDA)到超级计算机都应该可以完成同样的作业。即是说,即使是设计完全相同的计算机,只要经过相应改装,就应该可以被用于从公司薪金管理到无人驾驶飞船操控在内的各种任务。由于科技的飞速进步,下一代计算机总是在性能上能够显著地超过其前一代,这一现象有时被称作“摩尔定律”。
计算机在组成上形式不一。早期计算机的体积足有一间房屋大小,而今天某些嵌入式计算机可能比一副扑克牌还小。当然,即使在今天,依然有大量体积庞大的巨型计算机为特别的科学计算或面向大型组织的事务处理需求服务。比较小的,为个人应用而设计的计算机称为微型计算机,简称微机。我们今天在日常使用“计算机”一词时通常也是指此。不过,现在计算机最为普遍的应用形式却是嵌入式的。嵌入式计算机通常相对简单,体积小,并被用来控制其它设备-无论是飞机,工业机器人还是数码相机。
上述对于电子计算机的定义包括了许多能计算或是只有有限功能的特定用途的设备。然而当说到现代的电子计算机,其最重要的特征是,只要给予正确的指示,任何一台电子计算机都可以模拟其他任何计算机的行为(只受限于电子计算机本身的存储容量和执行的速度)。据此,现代电子计算机相对于早期的电子计算机也被称为通用型电子计算机。