用spss怎样计算 基尼系数计算(给具体操作过程)

君,已阅读到文档的结尾了呢~~
用spss计算基尼系数,spss计算相关系数,spss计算偏相关系数,基尼系数计算方法&/5a0a&&/th&&/tr&&tr&&th&&a href=&/s?wd=基尼系数计算公式
扫扫二维码,随身浏览文档
手机或平板扫扫即可继续访问
用spss计算基尼系数
举报该文档为侵权文档。
举报该文档含有违规或不良信息。
反馈该文档无法正常浏览。
举报该文档为重复文档。
推荐理由:
将文档分享至:
分享完整地址
文档地址:
粘贴到BBS或博客
flash地址:
支持嵌入FLASH地址的网站使用
html代码:
&embed src='/DocinViewer--144.swf' width='100%' height='600' type=application/x-shockwave-flash ALLOWFULLSCREEN='true' ALLOWSCRIPTACCESS='always'&&/embed&
450px*300px480px*400px650px*490px
支持嵌入HTML代码的网站使用
您的内容已经提交成功
您所提交的内容需要审核后才能发布,请您等待!
3秒自动关闭窗口spss|LOFTER(乐乎) - 记录生活,发现同好
LOFTER for ipad —— 记录生活,发现同好
&nbsp&nbsp被喜欢
&nbsp&nbsp被喜欢
{list posts as post}
{if post.type==1 || post.type == 5}
{if !!post.title}${post.title|escape}{/if}
{if !!post.digest}${post.digest}{/if}
{if post.type==2}
{if post.type == 3}
{if !!post.image}
{if post.type == 4}
{if !!post.image}
{if !!photo.labels && photo.labels.length>0}
{var wrapwidth = photo.ow < 500?photo.ow:500}
{list photo.labels as labs}
{var lbtxtwidth = Math.floor(wrapwidth*(labs.ort==1?labs.x:(100-labs.x))/100)-62}
{if lbtxtwidth>12}
{if !!labs.icon}
{list photos as photo}
{if photo_index==0}{break}{/if}
品牌${make||'-'}
型号${model||'-'}
焦距${focalLength||'-'}
光圈${apertureValue||'-'}
快门速度${exposureTime||'-'}
ISO${isoSpeedRatings||'-'}
曝光补偿${exposureBiasValue||'-'}
镜头${lens||'-'}
{if data.msgRank == 1}{/if}
{if data.askSetting == 1}{/if}
{if defined('posts')&&posts.length>0}
{list posts as post}
{if post_index < 3}
{if post.type == 1 || post.type == 5}
{if !!post.title}${post.title|escape}{/if}
{if !!post.digest}${post.digest}{/if}
{if post.type == 2}
{if post.type == 3}
{if post.type == 4}
{if post.type == 6}
{if drlist.length>0}
更多相似达人:
{list drlist as dr}{if drlist.length === 3 && dr_index === 0}、{/if}{if drlist.length === 3 && dr_index === 1}、{/if}{if drlist.length === 2 && dr_index === 0}、{/if}{/list}
暂无相似达人,
{if defined('posts')&&posts.length>0}
{list posts as post}
{if post.type == 2}
{if post.type == 3}
{if post.type == 4}
{if post.type == 6}
this.p={ currentPage:1,pageNewMode:true,isgooglead3:false,ishotrecompost:false,visitorId:0, first:'',tag:'spss',recommType:'total',recommenderRole:0,offset:20,type:0,isUserEditor:0,};《大数据-机器学习就业班@深圳》 报名咨询火爆,名额有限,有兴趣的赶紧上车,即将开课!30天培训+3个月实习,50多家企业直聘合作资源,签订就业服务协议,AI时代转行首选!/Answer/page/dashujujiqixuexi
> spss之聚类和分类(笔记)
1.1 层次聚类:
对给定的数据集进行层次的分解,直到某种条件满足为止。具体又可分为凝聚的,分裂的两种方案。
a.凝聚的层次聚类是一种自底向上的策略,首先将每个对象作为一个簇,然后合并这些原子簇为越来越大的簇,直到所有的对象都在一个簇中,或者某个终结条件被满足,绝大多数层次聚类方法属于这一类,它们只是在簇间相似度的定义上有所不同。
b.分裂的层次聚类与凝聚的层次聚类相反,采用自顶向下的策略,它首先将所有对象置于同一个簇中,然后逐渐细分为越来越小的簇,直到每个对象自成一簇,或者达到了某个终止条件。
1.2 K均值聚类:
是典型的基于原型的聚类方法的代表,它是数据点到原型的某种距离作为优化的目标函数,利用函数求极值的方法得到迭代运算的调整规则。K-means算法以作为相似度测度,它是求对应某一初始聚类中心向量V最优分类,使得评价指标J小。算法采用准则函数作为聚类准则函数。
2.用距离衡量相似度
2.1 欧式距离&#8212;&#8211;(数值型数据)
&欧氏距离是最易于理解的一种距离计算方法,源自欧氏空间中两点间的距离公式。
(1)二维平面上两点a(x1,y1)与b(x2,y2)间的欧氏距离:
(2)三维空间两点a(x1,y1,z1)与b(x2,y2,z2)间的欧氏距离:
(3)两个n维向量a(x11,x12,&,x1n)与 b(x21,x22,&,x2n)间的欧氏距离:
也可以用表示成向量运算的形式:
2.2卡方距离&#8212;-(非连续型数据)
2.3.匹配系数&#8212;-(二值型数据)
属性的取值是二元的,即属性的观测值只有两类,,这样来判断一个对象的相似性,就要去判断两个对象中各个属性的相似性,而简单匹配系数就是直接计算属性相同的个数与总个数之比,计算公式如下:
&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&& &&&SMC=属性值相同的属性个数/总属性个数
3.聚类算法:
将每个对象归为一类, 共得到N类, 每类仅包含一个对象. 类与类之间的距离就是它们所包含的对象之间的距离.
找到最接近的两个类并合并成一类, 于是总的类数少了一个.
重新计算新的类与所有旧类之间的距离.
重复第2步和第3步, 直到最后合并成一个类为止(此类包含了N个对象).
K-MEANS算法:
&选择K个点作为初始质心&&
&将每个点指派到最近的质心,形成K个簇&&
&重新计算每个簇的质心&&
&until&簇不发生变化或达到最大迭代次数&
1.什么是决策树?
决策树(Decision Tree)是在已知各种情况发生概率的上,通过构成决策树来求取净现值的值大于等于零的概率,评价项目风险,判断其可行性的决策分析方法,是直观运用概率分析的一种图解法。由于这种决策分支画成图形很像一棵树的枝干,故称决策树。在机器学习中,决策树是一个预测模型,他代表的是对象属性与对象值之间的一种映射关系。Entropy = 系统的凌乱程度,使用算法,&和C5.0生成树算法使用熵。这一度量是基于信息学理论中熵的概念。
决策树是一种树形结构,其中每个内部节点表示一个属性上的测试,每个分支代表一个测试输出,每个叶节点代表一种类别。
分类树(决策树)是一种十分常用的分类方法。他是一种监管学习,所谓监管学习就是给定一堆样本,每个样本都有一组属性和一个类别,这些类别是事先确定的,那么通过学习得到一个分类器,这个分类器能够对新出现的对象给出正确的分类。这样的机器学习就被称之为监督学习。
2.决策树的算法:
3..决策树的构造:
首先:选择最优属性作为根节点,最优的判别根据是信息增益来判断,其中有三个指标分别是
熵:&&& 假设X是一个离散随即变量,即它的取值范围R={x1,x2&#8230;}是有限可数的。设pi=P{X=xi},X的熵定义为:若式中,对数的底为 & & & &2,则熵表示为H2(x),此时以2为基底的熵单位是bits,即位。若某一项pi=0,则定义该项的pilogpi-1为0。基尼系数:& 基尼指数是另外一种数据的不纯度的度量方法,其定义如下:
& 其中的m仍然表示数据集D中类别C的个数,Pi表示D中任意一个记录属于Ci的概率,计算时Pi=(D中属于Ci类的集合的记录个数/|D|)。&如果所有的记录都属于同一个类中,则P1=1,Gini(D)=0,此时不纯度最低。在CART(Classification and Regression Tree)算法中利用基尼指数构造 二叉决策树,对每个属性都会枚举其属性的非空真子集,以属性R分裂后的基尼系数为:
&D1为D的一个非空真子集,D2为D1在D的补集,即D1+D2=D,对于属性R来说,有多个真子集,即GiniR(D)有多个值,但我们选取最小的那么值作为R的基尼指数。最后:
然后, 如何分裂变量:要求是1.分类&#8212;-多元或二元
&&&&&&&&&&&& 2.有序性数据的有序性要保持
&&&&&&&&&&&&3.连续性数据要离散化
停止: 当记录数比较少,熵已经很小了,不纯度=0的时候
4.优化决策树
& 减枝:保证分类效果前提下,尽量是层次更少,树的节点更少.分为:
&预剪枝:在分类之前通过信息增益的方法剪去一部分枝节点
&后剪枝:在分类完成之后,再根据信息增益方法剪去一部分叶节点.
5.评估决策树&#8212;-使用混淆矩阵,
例如有150个样本数据,这些数据分成3类,每类50个。分类结束后得到的混淆矩阵为:
每一行之和为50,表示50个样本,第一行说明类1的50个样本有43个分类正确,5个错分为类2,2个错分为类3
最近邻分类:
&&&& 简介:&k-近邻(kNN,k-Nearest Neighbors)算法是一种基于实例的分类方法。该方法就是找出与未知样本x距离最近的k个训练样本,看这k个样本中多数属于哪一类,就把x归为那一类。k-近邻方法是一种懒惰学习方法,它存放样本,直到需要分类时才进行分类,如果样本集比较复杂,可能会导致很大的计算开销,因此无法应用到实时性很强的场合。&
& & &算法:
1. 准备数据,对数据进行预处理
2. 选用合适的数据结构存储训练数据和测试元组
3. 设定参数,如k
4.维护一个大小为k的的按距离由大到小的优先级队列,用于存储最近邻训练元组。随机从训练元组中选取k个元组作为初始的最近邻元组,分别计算测试元组到这k个元组的距离,将训练元组标号和距离存入优先级队列
5. 遍历训练元组集,计算当前训练元组与测试元组的距离,将所得距离L 与优先级队列中的最大距离Lmax
6. 进行比较。若L&=Lmax,则舍弃该元组,遍历下一个元组。若L & Lmax,删除优先级队列中最大距离的元组,将当前训练元组存入优先级队列。
7. 遍历完毕,计算优先级队列中k 个元组的多数类,并将其作为测试元组的类别。
8. 测试元组集测试完毕后计算误差率,继续设定不同的k值重新进行训练,最后取误差率最小的k 值。
朴素贝叶斯分类:
简介:&贝叶斯(Bayes)分类算法是一类利用概率统计知识进行分类的算法,如朴素贝叶斯(Naive Bayes)算法。这些算法主要利用Bayes定理来预测一个未知类别的样本属于各个类别的可能性,选择其中可能性最大的一个类别作为该样本的最终类别。由于贝叶斯定理的成立本身需要一个很强的条件独立性假设前提,而此假设在实际情况中经常是不成立的,因而其分类准确性就会下降。为此就出现了许多降低独立性假设的贝叶斯分类算法,如TAN(Tree Augmented Na?ve Bayes)算法,它是在贝叶斯网络结构的基础上增加属性对之间的关联来实现的。&
原理:&每次提到贝叶斯定理,我心中的崇敬之情都油然而生,倒不是因为这个定理多高深,而是因为它特别有用。这个定理解决了现实生活里经常遇到的问题:已知某条件概率,如何得到两个事件交换后的概率,也就是在已知P(A|B)的情况下如何求得P(B|A)。这里先解释什么是条件概率:
&表示事件B已经发生的前提下,事件A发生的概率,叫做事件B发生下事件A的条件概率。其基本求解公式为:
&贝叶斯定理之所以有用,是因为我们在生活中经常遇到这种情况:我们可以很容易直接得出P(A|B),P(B|A)则很难直接得出,但我们更关心P(B|A),贝叶斯定理就为我们打通从P(A|B)获得P(B|A)的道路。 下面不加证明地直接给出贝叶斯定理:
简介:&人工神经网络(Artificial Neural Networks,ANN)是一种应用类似于大脑神经突触联接的结构进行信息处理的数学模型。在这种模型中,大量的节点(或称&神经元&,或&单元&)之间相互联接构成网络,即&神经网络&,以达到处理信息的目的。神经网络通常需要进行训练,训练的过程就是网络进行学习的过程。训练改变了网络节点的连接权的值使其具有分类的功能,经过训练的网络就可用于对象的识别。&目前,神经网络已有上百种不同的模型,常见的有BP网络、径向基RBF网络、Hopfield网络、随机神经网络(Boltzmann机)、竞争神经网络(Hamming网络,自组织映射网络)等。但是当前的神经网络仍普遍存在收敛速度慢、计算量大、训练时间长和不可解释等缺点。
原理:&输入x1,x2,x3等等数据,在一个黑盒里面进行模拟,输出一个函数,得到的结果与实际值做对比,使之误差最小化,这样是一种学习的过程,因为事先并没有设定函数类型,只是计算机在不断的模拟各种公式,修改各个变量的权重,最后输出一格比较理想的式子.
支持向量机:
简介:&支持向量机(SVM,Support Vector Machine)是Vapnik根据统计学习理论提出的一种新的学习方法[43] ,它的最大特点是根据结构风险最小化准则,以最大化分类间隔构造最优分类超平面来提高学习机的泛化能力,较好地解决了非线性、高维数、局部极小点等问题。对于分类问题,支持向量机算法根据区域中的样本计算该区域的决策曲面,由此确定该区域中未知样本的类别。&
原理:&用一个二维空间里仅有两类样本的分类问题来举个小例子。如图所示
C1和C2是要区分的两个类别,在二维平面中它们的样本如上图所示。中间的直线就是一个分类函数,它可以将两类样本完全分开。一般的,如果一个线性函数能够将样本完全正确的分开,就称这些数据是线性可分的,否则称为非线性可分的。什么叫线性函数呢?在一维空间里就是一个点,在二维空间里就是一条直线,三维空间里就是一个平面,可以如此想象下去,如果不关注空间的维数,这种线性函数还有一个统一的名称&&超平面(Hyper Plane)实际上很容易看出来,中间那条分界线并不是唯一的,我们把它稍微旋转一下,只要不把两类数据分错,仍然可以达到上面说的效果,稍微平移一下,也可以。此时就牵涉到一个问题,对同一个问题存在多个分类函数的时候,哪一个函数更好呢?显然必须要先找一个指标来量化&好&的程度,通常使用的都是叫做&分类间隔&的指标
&&&&&&& 当用归一化的w和b代替原值之后的间隔有一个专门的名称,叫做几何间隔,几何间隔所表示的正是点到超平面的欧氏距离,以上是单个点到某个超平面的距离(就是间隔,后面不再区别这两个词)定义,同样可以定义一个点的集合(就是一组样本)到某个超平面的距离为此集合中离超平面最近的点的距离。下面这张图更加直观的展示出了几何间隔的现实含义:
H是分类面,而H1和H2是平行于H,且过离H最近的两类样本的直线,H1与H,H2与H之间的距离就是几何间隔。至此我们就明白为何要选择几何间隔来作为评价一个解优劣的指标了,原来几何间隔越大的解,它的误差上界越小。因此最大化几何间隔成了我们训练阶段的目标,而且,与二把刀作者所写的不同,最大化分类间隔并不是SVM的专利,而是早在线性分类时期就已有的思想。
ppv课线下培训,附老师上课中图片:
PPV原创文章,严禁转载. (文:@白加黑治感冒)
转载请注明: &
or分享 (0)评论列表(网友评论仅供网友表达个人看法,并不表明本站同意其观点或证实其描述)如何计算基尼系数-学网-中国IT综合门户网站-提供健康,养生,留学,移民,创业,汽车等信息
> 信息中心 >
如何计算基尼系数
来源:互联网 发表时间: 0:30:53 责任编辑:李志喜字体:
为了帮助网友解决“如何计算基尼系数”相关的问题,学网通过互联网对“如何计算基尼系数”相关的解决方案进行了整理,用户详细问题包括:RT,我想知道:如何计算基尼系数,具体解决方案如下:解决方案1:以每组人口总收入占全部人口总收入的比重Yi为高,每组人口占总人口的20%;2 ΣPiYi。将洛伦茨曲线的终点与坐标原点连接起来。 (2)分别计算每一组人口总收入占全部人口总收入的百分比,表示社会收入分配不平等程度加剧、62%。 然后减去以全部人口数占全部人口数的比重即100%为底;2 ×1&#47,基尼系数也随之成为当前我国经济生活中最流行的经济学语词之一。 (4)以各组累计人口百分比为横轴: G=2Σ(ΣPi)′Yi -1-ΣYiPi =-[1+ΣYiPi-2Σ(ΣPi)′Yi] 照此推导结果,首先需要计算A的面积,不同行业,发行量不大。为此,找到了一种简便易用的计算方法,得到一条直线: G=1-1&#47。就笔者手头所有的十几种经济学教科书来讲;5 [ 2 (4% + 10% + 21% +38% ) + 1 ] =0,其它均相同,即1&#47: G=1+(20%×4%+20%×6%+20%×11%+20%×17%+20%×62%)-2(20%×4%+40%×6%+60%×11%+80%×17%+100%×62%) =-0,计算的三角形面积,计算从第1组直到第i组的累计人口总收入占全部人口总收入的百分比,并加总:累计到第1组人口总收入占全部人口总收入的比重为4%。 假定经过调查计算,即可得到基尼系数的计算公式,笔者决定还是借助网络来广而告之,而未介绍推导过程。从洛伦茨曲线的终点向横轴作一垂线: 首先以累计到第i组的人口比重(ΣPi)′为长度,笔者作了独立探索和简化,公式本身的易学易记易用方面。据臧日宏编著《经济学》第201至202页. 这样就近似地得到了A的面积,结果为1&#47。只有臧日宏编者《经济学》(中国农业大学出版社2002年7月第1版)和王健,以累计到第i-1组人口总收入占全部人口总收入的比重Wi-1为上底,)在洛伦茨曲线的基础上,笔者经反复思索、17%,但该书作为教科书,并于笔者所著《经济学――入门与创新》(中国农业出版社2005年8月第1版)一书中作了简要介绍,Yi代表第i组人口总收入占全部人口总收入的比例,无法直接计算B的面积,作出表示直到每一组的累计人口总收入占全部人口总收入的百分比随累计人口百分比变化而变化的曲线。(因作图不便,计算结果,G代表基尼系数。由于实际洛伦茨曲线是一条弯曲的线;n ×(Wi-1 + Wi)] 最后。 (三)推介一个新的简便易用的基尼系数计算公式 鉴于上述基尼系数计算公式理论推导的复杂。 很容易知道A+B的面积,每组人口收入占全部人口总收入的比重依次分别为4%;2,计算的三角形面积,即Σ(ΣPi)′Yi,并按人数相等的原则平均分为若干组,除符号与臧日宏书中所述相反外。 (四)应用举例 为了帮助读者确切地掌握上述公式的使用方法,累计到第4组人口总收入占全部人口总收入的比重为38%,称为“绝对不公平线”(Curve of absolute inequality)。由于洛伦茨曲线是一条不规则的曲线,累计到第2组人口总收入占全部人口总收入的比重为10%,没有任何分配差距。按上述臧日宏书中介绍的方法,显而易见推介一个简便易用的基尼系数计算公式 近年来,其他人毫无收入。为了能够定量地精确反映社会收入分配不平等程度,累计收入百分比为纵轴,理解记忆比较困难,但该公式推导过程相当复杂。 (二)关于既有基尼系数计算公式的商榷 目前,只能采用某种方法近似计算.508 取其绝对值.508 若使用前述臧日宏《经济学》书中介绍的公式计算、6%;(A+B) 因为实际的洛伦茨曲线总是落在绝对公平线与绝对不公平线之间。 上述洛伦茨曲线;n [2 ΣWi + 1 ] 其中Wi表示从第1组累计到第i组的人口总收入占全部人口总收入的百分比,而没有具体计算公式。 G=1-1/2;2,(ΣPi)′表示累计到第i组的人口总数占全部人口总数的比重,计算出相应的一个个小矩形的面积,以每组人口占全部人口的比例即1&#47,作一示范,引起了社会各界人士的广泛关注,表示全部收入完全平均地分配在所有人口中间,1903-,对于如何计算基尼系数: 首先计算A+B的面积,然后再沿横轴回到坐标原点,以全部人口总收入占全部人口总收入的比重即100%为高,基尼系数总是介于0和1之间。但两种方法在理论推导思路的简捷,将全部调查人口分为5组、11%。一般实际的洛伦茨曲线总是处于绝对公平线与绝对不公平线之间,故略) 通过上述步骤得到的洛伦茨曲线通常是一条向右下方凸出的弯曲的曲线: B = Σ[ 1&#47,只有臧日宏编著《经济学》和王健,即1&#47、修长柏主编《西方经济学》介绍了基尼系数的具体计算公式。 (3)按收入由低到高的顺序: G=1+ΣYiPi-2Σ(ΣPi)′Yi 上式中,以全部人口总收入占全部人口总收入的比重即100%为高。一般地,其含义是指实际洛伦茨曲线与绝对公平线所包围的面积A占绝对公平线与绝对不公平线之间的面积A+B的比重,自行作图推导) 为了计算基尼系数G。 仍以上述假定数据为例,即得到近似B的面积,i从1到n-1: G= A&#47、不同个人之间的社会收入分配差距明显拉大,表示收入分配不公平程度越大。当洛伦茨曲线与绝对公平线重合时:(因作图不便,计算一个个小梯形的面积,这就是洛伦茨曲线,即得一个简便易学易用的基尼系数计算公式,绝大多数都只限于介绍定义: (1)将一定地区(如一个国家,实际计算烦琐,熟优熟劣,稍懂经济学常识的读者;当洛伦茨曲线与绝对不公平线重合时。 再减去以每组人口数占全部人口数的比重Pi为底,国内经济学教科书绝大多数都没有介绍基尼系数的具体计算公式,说明其基本做法,与横轴相交,再将上述推导结果代入基尼系数公式,因此采用近似梯形的面积来代替。 其次计算B的面积,并加总。 臧日宏《经济学》只介绍了这一基尼系数计算公式及其计算步骤,只能粗略地大概地反映社会收入分配不平等程度;n为高。经笔者个人分析、修长柏主编《西方经济学》(中国农业大学出版社2004年10月第1版)这两种教科书给出了基尼系数的计算公式,只好用语言描述。假定全部人口平均分为n组,进一步提出了基尼系数(Ginicoefficient)的概念,无法直接计算A的面积。将上述推导出来的A和A+B的面积代入基尼系数的定义式,基尼系数为0。用公式表示,这样得到一条折线,就是以全部人口数占全部人口数的比重即100%为底,并随洛伦茨曲线弯曲程度的增大而逐渐增大,以累计到第i组人口总收入占全部人口总收入的比重Wi为下底。 但是。结果如下,以第i组人口总收入占全部人口总收入的比重Yi为宽,实际应用的烦琐,洛伦茨曲线弯曲程度越大,与使用本文推介的简便公式计算结果完全一样,现以本文前述假想数据为例,在国民经济整体快速发展的同时,基尼系数为1,基尼系数的计算公式如下,即减去1&#47,Pi代表第i组人口数占全部人口总数的比重?)提出来的一个用以衡量社会收入分配公平程度的统计分析工具、一个省,计算的一个个小三角形的面积之和,因此,化简整理,它表示全部收入集中在1个人手中。在笔者手头所有的十几种经济学教科书中,表示社会收入分配绝对不平均,表示社会收入分配绝对平均,则为、不同地区。现以一个假想的例子。 一般比较常见的是,被称为“绝对公平线”(Curve of absolute equality),难于为一般读者所了解,目前国内经济学教科书鲜有介绍,累计到第3组人口总收入占全部人口总收入的比重为21%,理解记忆的困难,其推导过程大致如下。考虑到这一问题的重大理论意义和实际应用价值。 (一)洛伦茨曲线与基尼系数的基本概念 洛伦茨曲线(Lorenz curve)是奥地利统计学家洛伦茨(Max Otto Lorenz,应该不难根据这里的语言描述、一个县等)内的全部调查人口按收入由低到高顺序排队,意大利统计学家基尼(Corrado Gini,我国经济生活中
相关文章:
最新添加资讯
24小时热门资讯
Copyright &#169; 2004- All Rights Reserved. 学网 版权所有
京ICP备号-1 京公网安备02号}

我要回帖

更多关于 基尼系数计算 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信