医学信息学笔记教材.docx
《医学信息学笔记教材.docx》由会员分享,可在线阅读,更多相关《医学信息学笔记教材.docx(14页珍藏版)》请在冰豆网上搜索。
![医学信息学笔记教材.docx](https://file1.bdocx.com/fileroot1/2022-10/11/32f3f912-2bff-4369-b08a-667b98e2b4c2/32f3f912-2bff-4369-b08a-667b98e2b4c21.gif)
医学信息学笔记教材
第一章医学信息学的产生条件1
第二章医学信息的基本概念和原理1
第三章信息的数字化描述3
第四章医学信息的模型化概述4
第五章信息的分类和编码5
第六章医学信息的感知与获取6
第七章医学信息系统的集成和处理(这一章我们没有学,应该不用看)8
第八章模拟人脑思维的信息处理方法9
第九章模拟生命进化的信息处理方法10
第十章医院信息系统的概念和技术11
第一章医学信息学的产生条件
•信息处理工具(计算机)的产生;
•医学科学的发展对信息科学的需求和信息科学对医学科学的渗透;
•理论基础(老三论系统论、信息论、控制论)的问世
医学信息学的内在理解:
它是一门交叉、独立,复杂、学科
内容上独立:
学科方向的差异性、对象的特殊性、学科语言的系统性、学科规范的约束性
医学信息学研究的内容:
医学信息的概念、属性、表征和度量
•在不同层次(环境、社会、群体、个体、器官、细胞、分子)上研究各类医学信息的获取、存储、变换、传输、加工的基本原理和基本方法。
•在整体和局部,在宏观和微观上,按照信息的观点实践和建立各种类型的医学信息系统,从而创建一批独具特色的环境医学信息学、临床医学信息学以及生物信息学等医学信息学分支。
研究和开发各种医学信息系统的软件以及与之相应的医疗或保健设备,在一定程度上实现医学信息产业化
医学信息学研究的意义:
1、为发现人体健康与疾病的规律,揭示人类新的健康观、疾病观和生命的本质,开辟一条研究的新途径。
2、将有力地促进医学科学的完全现代化和完全科学化的向前发展
医学信息学方法论的基本原则:
Ø系统论与还原论相结合
Ø宏观分析与微观求解相结合
Ø学科联盟与单科切入相结合
Ø基础探讨与应用效应相结合
其中最重要的是:
系统论与还原论相结合,既要使用还原论的方法去探求生命体各个局部的信息传输、存储、转换的基本性质和基本途径,也要用系统论的观点去分析和把握整个生命系统的信息运动规律。
第二章医学信息的基本概念和原理
•在科学界,信息论、控制论和系统论被称为“老三论”(创始人分别是:
申农,维纳,贝塔朗菲)
•信息论的基本内容:
主要研究了通信系统中信息的含义、属性、本质、度量、运动特点和信息处理的一般规律。
•控制论的基本内容:
主要研究了机器和动物系统中如何通过信息实现系统控制的一般规律,同时也对信息的含义和定量描述进行了与申农类似的阐述和论证。
•系统论的基本内容:
主要从系统的层次、结构、功能、环境和信息等基本要素研究了数学系统论、技术系统论和哲学系统论。
在方法论上系统论强调:
整体性原则、结构性原则、开放性原则、最优化原则以及一个系统如何在信息的控制下实现系统结构、系统生存和发展的相对平衡。
信息论、控制论和系统论是信息科学得以问世的理论基础;毫无疑问,它们也是医学信息学产生的重要基础。
•信息科学认为:
任何一个事物都可构成一个系统,任何一个系统都必须在一定的控制下才能生存;而任何一种控制又必须依靠信息才能实现。
所以,控制是系统存在的条件,信息是控制的基础;系统是控制存在的具体表现,控制是信息存在的具体反映。
总之三者相互依存,构成一个有机的整体,只有这样,才能使一个系统的内部和外部达到平衡和发展
•为什么说信息不是物质?
它不遵守物质不灭定理;也不遵守物资的质量守恒定律,它无质量可言。
为什么说信息不是能量?
它不会直接做功;它也不遵守能量守恒定律。
信息包含在消息中,或说消息是信息的一种载体。
与消息类似,信息包含在信号之中,信号只是信息的一种运载工具。
情报只能是一类特定的信息,而不是信息的全部,即信息包含情报,或者说情报仅仅是信息的一个子集。
信息包含知识,或者说知识包含在信息之中
•信息的基本特征:
•普遍性:
无处不在,无时不有,但无质量可言。
•寄载性:
不能独立存在,必须寄载在某种物质中
•传递性:
可借助某种信道进行传递。
•共享性:
任何信息都可以为大家所有。
显然这是与物质能量的一个显著区别。
•表征性:
任何信息都可以以某种形式表征出来。
•压缩性:
信息是可压缩的。
•增殖性:
信息在传递过程中可能被增殖。
•生命性:
这是医学信息所具有的独特性质。
第三章信息的数字化描述
概率值的大小是描述信息量大小的重要指标。
•事件某个状态xi发生所包含的信息量实际上就是由该状态xi发生的先验概率P(xi)转变成后验概率P(xi+1)的一个不确定函数的改变量,即f(P(xi))-f(P(xi+1))。
如果用符号H(xi)表示,那么就称这个改变率为事件在状态xi时发生后的自信息,或称自信息量函数:
H(xi)=-logP(xi)H(xi)只是一个随机变量
•把信宿接收到信源的消息后,消除信源事件不确定性的程度来度量信源所有消息的平均信息量,简称信息量。
这就是申农信息熵的基本思想。
•底数为e时,其的单位是奈特(Nat即NaturalDigit)。
底数为2时,其单位是比特(Bit即BinaryDigit)。
底数为10时,其的单位是迪特(Dit即DecimalDigit)
•当出现概率p(xi)=0时,则约定:
0log0=0
•熵的性质:
最常用的有三条:
非负性:
(离散状态)信息熵总大于0
确定性:
多个状态中只要有一个确定(发生或不发生),则熵值必为0
极值性:
等概时熵值最大
什么是联合熵:
指两个以上事件(信源)联合发生所具有的信息量的概率平均值。
什么是条件熵:
指由两个或两个以上的随机事件或者说信源构成一个事件集,当一个随机事件已知时,另一个随机事件发生所提供的联合不确定性
H(Y|X)=
•条件熵与信息熵的关系:
当两个随机事件X,Y相互独立时:
H(X,Y)=H(X)+H(Y)H(X|Y)=H(X)H(Y|X)=H(Y)
•当它们相互关联时:
H(X,Y)≤H(X)+H(Y)H(X|Y)≤H(X)H(Y|X)≤H(Y)
在传输过程中接收到消息Y后,信源消息X由先验熵H(X)变成后验熵H(X|Y)的改变量定义成互信息,即:
随机事件X与Y之间的平均互信息,简称为互信息(MutualInformation)并用I(X;Y)表示,即:
I(X;Y)=H(X)-H(X|Y)
•互信息也可定义为:
I(Y;X)=H(Y)-H(Y|X)且有(对称性):
I(X;Y)=I(Y;X)
•互信息还可以通过联合熵定义成下面形式:
I(X;Y)=H(X)+H(Y)-H(X,Y)I(Y;X)=H(X)+H(Y)-H(Y,X)
微分熵即连续随机变量的信息熵。
关于连续随机变量的信息熵,申农仿照微积分中可把连续问题看成是某种函数和的极限的方法,直接将其定义为连续随机变量的信息熵,并称为微分熵,即:
N次扩展信源的信息熵应等于:
计算题:
P67
计算题:
p51,p56,p67
第四章医学信息的模型化概述
什么是模型?
所谓模型实际上是一个系统,它是对原型实体或者说原型信息系统的特征和规律的一种描述。
换言之,模型是原型的一种代表,是对现实世界的一种抽象。
一个模型必须满足三个条件:
具有相似性(类比性);具有代表性(在形态上或行为上或功能上);具有外推性。
•什么是模型化?
所谓模型化就是对研究对象(某个事物或某个事件或某个过程)建立一种模拟模型,并借助于计算机对其进行加工处理的过程。
•模型化基本方法:
◊
(1)具有结构化特点的医学信息:
一般是使用数学语言构建一个模型,然后该模型进行相关的分析、探索和推测。
◊
(2)具有非结构化特点的医学信息:
一般是建立一个描述性模型,即用一种形式化的语言(自然语言、程序语言或类程序语言)对所研究的对象进行描述,进而对其进行研究。
•基本步骤:
(1)构建模型:
构建所研究对象即医学信息原型的模型。
(2)分析和验证模型:
对医学信息模型进行功能或行为进行研究和判断。
(3)应用和预测模型:
应用所建模型推测新的医学信息原型并得出相应的结论。
•确定性医学信息模型化含义是指在医学研究中输入一定的确定的信息条件下,对必然产生一定结果的医学事件或医学过程规律的描述。
欲建立一个确定性信息模型,实际上就是要构建一个确定的数学等式。
•随机性信息模型亦称概率信息模型。
它是以随机性信息为基础建立起来的并对其进行研究的一类信息模型,或者说是指在研究输入一定的随机信息的条件下,描述可能发生的事件和过程规律的模型。
•模糊信息的模型
所谓模糊模型,自然是借用模糊数学这个工具,对医疗领域中所出现的模糊信息分析研究、抽象概括,进而建立起来的各种客观的数量关系
模糊(信息)熵,是对论域上一个模糊集合的模糊程度的一种描述方法,描述模糊度的另一种方法是距离法。
•非线性模型实质上就是非线性系统。
其特征是:
从数学上看:
量与量之间不存在正比关系;没有部分之和等于整体;不遵从叠加原理。
从物理上看:
不表现为时空中的平滑运动;在外界影响下系统中某些参量的极细小变化,可能引起系统在一些关键点(阀值)上运动形式的决定性改变
“新三论”系指:
《耗散结构论》、《协同学》、《突变论》以及衍生出来的《混沌学》、
《分形论》和超循环理论等。
•耗散结构论、协同论与突变论一起,在研究系统有序与无序的演变机制上,把系统的形成、结构和功能联系起来,为推动复杂性科学和非线性系统的研究提供了重要的理论支撑和全新的科学世界观和方法论。
非线性研究的基本原理:
•开放系统原理,系统有:
孤立系统、封闭系统和开放系统
•远离平衡原理,要使系统向有序转化,就必须打破平衡使系统远离平衡态。
•协同作用原理,系统从无组织状态变为有组织状态,有序度增加,无序度降低,从而实现新的结构产生和生物的进化与发展。
•突变原理,任何一个系统中任何一种耗散结构现象或混沌现象在实现其由无序向有序的转化,或由有序向无序的转化,总是要达到阈值产生一个突变过程。
•涨落原理,所谓涨落,实际上是系统中在从无序向有序或从有序向无序的转化中出现的“振荡”现象,只有涨落发生,才能导致突变发生。
•人体医学信息系统的非线性
(1)人体医学信息系统的不可逆性
(2)人体信息系统的多层交错性
(3)人体信息系统的程序性
第五章信息的分类和编码
信息分类基础和依据是:
学科分类的原则
信息分类的基本原则:
科学性,系统性,可扩充性,可兼容性,综合实用性
信息分类的一般方法
(1)符号分类法
(2)数字分类法
信息熵分类算法
•第一步:
算信源的信息离散量和离散增量。
P122
•第二步:
构建离散增量系数表。
•第三步:
在建立的离散增量表中找出最小的离散增量,即求出min{△ij},然后将第i和第j两类合并成一个新类。
•第四步:
重新计算新表各类信息离散量、离散增量以及构建新的离散增量系数表。
•第五步:
重复第三步和第四步,直到新表只剩两种类型为止。
信息编码的含义就是将经过分类的信息赋以易于计算机处理,且能使其占用尽可能少的存储空间的规律性的符号或代码的过程。
编码主要完成工作:
其一,对需编码的信息进行分类描述;
其二,对经过分类的信息对象,选择适当的方法对其进行代码处理,使能够正确、高效地进行表达、传输和存储。
哈夫曼编码法和香农编码法就属于可逆数字化编码法
•Li为信源第i个状态xi编码的长度,则该信源的平均码长L为:
极限定理:
H(X)为熵值
•所谓冗余度,是指信源X的最大熵值与实际熵值的差值,即:
R=Hmax(X)-H(X)=logN-H(X)显然这里的Hmax(X)是指信源X在等概率(p(x)=1/N)时的熵值。
•所谓编码效率是指信源X的信息熵值与信源每个符号的平均码长L的比值,即:
•变长最优数字编码定理:
在变长编码中,对出现概率大的信