对于G‏TC网站,用户的评价和反馈如何?它的服务质量和交易环境是否得到认可?

2024年试验检测师之交通工程题库第一部分单选题(800题)1、分隔道路上对向行驶的交通流的标线为何种颜色()。A.橙色标线B.蓝色标线C.黄色标线D.白色标线【答案】:C2、依据GB/T18833-2012,反光膜人工加速耐候性试验使用的光源为()。A.紫外灯B.碳弧灯C.氙弧灯D.红外灯【答案】:C3、4114mm立柱的直径误差为()。A.±1.04mmB.±1.14mmC.±1.24mmD.±1.34mm【答案】:B4、微波车辆检测器的作用范围为()。A.20mmB.30mmC.60mmD.100mm【答案】:C5、进行外壳防护等级试验时,防尘箱中使用的粉尘为()A.细砂B.滑石粉C.熟石灰粉D.生石灰粉【答案】:B6、GB5768-2009中规定纵向标线的线宽最低值为()。A.5cmB.8cmC.10cmD.12cm【答案】:B7、根据GB/T24722-2020《路面标线用玻璃珠》规定,检测玻璃珠密度时需用化学试剂二甲苯,二甲苯的密度是()克每立方厘米。A.1.10B.1.02C.0.86D.0.96【答案】:C8、闭路电视监视系统属于()。A.信息采集系统B.信息处理系统C.信息提供系统D.信息传输系统【答案】:A9、中性盐雾试验是人工模拟盐雾环境来考核产品或金属材料耐腐蚀性能的环境试验方法,请根据有关知识和标准回答下列问题。(4)交通工程产品中性盐雾试验的评定方法一般采用()。A.评级判定法B.称重判定法C.腐蚀物出现判定法(外观评定法)D.腐蚀数据统计分析法【答案】:C10、机电工程关键项目的合格率应不低于( ),否则该项目为不合格。A.85%B.90%C.95%D.100%【答案】:D11、公路隧道按长度分类正确的是()。A.特长隧道:大于5000mB.长隧道:5000-2000mC.中隧道:2000-500mD.短隧道:不超过500m【答案】:D12、反光膜耐盐雾腐蚀性能试验时,箱内温度保持在()。A.25℃±2℃B.30℃±2℃C.35℃±2℃D.40℃±2℃【答案】:C13、如果突起路标的型号为BYC25-100则表示为()突起路标A.B类黄色陶瓷B.A2类黄色C.A1类白色D.A3类红色【答案】:A14、溶剂型路面标线涂料的混合分散生产工序中生产设备主要是()。A.干粉混合机B.大型鼓风机C.高速分散机D.砂磨机【答案】:C15、单粒LED在额定电流时的发光强度,不论白色、黄色和红色都应不小于()。A.5000mcdB.1500mcdC.2000mcdD.2500mcd【答案】:C16、以下电子产品的通信方式属于半双工信道的是()A.电视B.广播C.对讲机D.移动电话【答案】:C17、高速公路供配电系统中使用的干式变压器的冷却介质是()。A.空气B.变压器油C.环氧树脂D.金属散热片【答案】:A18、下列关于公路隧道火灾报警系统的说法正确的是()。A.手动火灾报警响应时间不超过60秒B.手动火灾报警响应时间不超过100秒C.自动火灾报警的响应时间不应该超过100秒D.火灾报警区间应不大于50米【答案】:A19、道路交通标志产品测试环境条件一般为()。A.温度23℃±2℃、相对湿度50%±10%B.温度24℃±2℃、相对湿度55%±10%C.温度25℃±2℃、相对湿度60%±10%D.温度25℃±2℃、相对湿度65%±10%【答案】:A20、气象检测器的湿度检测器的测量误差应()。A.±5%R.HB.±3%R.HC.±2%R.HD.±1%R.H【答案】:A21、一台容量为20kVA的照明变压器,它的电压为6600V/220V,它能正常供给cosφ=0.6、电压为220V、功率40W的日光灯()。A.500盏B.300盏C.200盏D.800盏【答案】:B22、交通安全设施产品的测试准备内容包括试样的制备和()。A.测试标准B.测试环境条件C.测试仪器D.测试技术规程【答案】:B23、普通柱式轮廓标用合成树脂类板材的实测厚度应不小于()。A.1.5mmB.2.0mmC.2.5mmD.3.0mm【答案】:D24、对信号进行传输的是()。A.信元B.信道C.信宿D.信源【答案】:B25、试验设备的计量检定有效}

【摘要】:
近年来越来越多的学者通过研究发现,较高的顾客满意下仍然存在较高的顾客流失率,因此关于如何建设有效的顾客忠诚度成为了实践界和学术界共同关注的话题。一方面优质的服务质量能够起到积极的作用,它们会使顾客产生重复购买欲望并主动为企业作正面的口头宣传;另一方面,良好的关系质量也是企业培育忠诚顾客的关键,高质量的关系是企业和消费者的需求同时得到满足的关键,它能够减少顾客在交易上的不安全感,提高双方未来持续互动的效果。同时顾客对于服务质量的评价会影响顾客对于其与企业之间的关系质量的感知,即服务质量、关系质量与顾客忠诚三者之间存在着相互影响关系。
本文基于服务质量和关系质量的研究,主要从理论和实证两方面的角度展开研究。理论方面主要对目前国内外关于服务质量、关系质量和顾客忠诚以及三者之间的关系的研究成果进行综述;实证方面,本文以餐饮业为研究对象,发放调研问卷,建立模型,利用SPSS以及LISREL软件,通过探索性因子分析及结构方程模型探讨服务质量、关系质量及顾客忠诚三者之间的关系以及关系质量是否在里面起到中介效应。
论文通过小样本的初步试调分析及大样本的全面分析得出服务质量和关系质量都会对顾客忠诚产生正向显著影响,且关系质量在其中起到部分中介作用,但是并不是所有构成服务质量和关系质量的维度都会对顾客忠诚产生直接的正向显著影响,基于论文的研究结果,本文认为企业应该从加强对服务人员的培训、良好控制服务过程、培养顾客和企业间的关系质量和建设良好的环境质量四个方面入手,加强对顾客忠诚度方面的建设。
}
记者
吴洋洋编辑

锐人工智能正在把我们带入一个新纪元,从很多维度看都是如此。首先是一个叫作“人工智能生成内容”(Artificial Intelligence Generated Content,AIGC)的概念开始得到认可。它区别于之前的用户生产内容(User Generated Content,UGC),也不同于更早期的专业机构生产内容(Professionally Generated Content,PGC)。这个历程既表明了内容生产主体的切换,意味着具备生产能力和掌握发布权力的主体,正在从象征着“内容民主化”的个人,转移到善用AI辅助创作的“超级个体”——甚至可以是独立工作的AI本身;同时,它也意味着,AI能施展魔法的疆域正在跨越一个分界点:从“判别式领域”迈入“生成式领域”。过去,AI被认为只能做好判别性的工作。比如,判断一张图片中的人脸是不是特定的某人,一封来自未知地址的邮件是否为垃圾邮件,一篇分享到社交网络中的文章是否带有负面情绪,或者在一辆自动驾驶汽车前面晃动的到底是需要避开的真人还是无须在意的树影。2022年面世的两个文生图产品改变了人们对AI的能力偏见。一个是DALL·E 2,发布者是后来因推出ChatGPT闻名的硅谷初创公司OpenAI。另一个是Stable Diffusion,出自位于伦敦、同样是初创公司的Stability AI之手。两个产品的图片生成水平第一次让业界看到商用可能。此前,业界最优秀的图像生成工具是生成对抗网络(Generative Adversarial Network,GAN),只能生成特定图片——比如人脸,换成小狗就不行,得重新训练——DALL·E 2和Stable Diffusion没有这种局限性。上一个让业界看到商用可能并大获成功的AI技术是图像识别。2015年,基于深度学习的计算机视觉算法在ImageNet数据库里的识别准确率首次超过人类。此后,人脸识别系统迅速取代数字密码,成为最新潮的身份标识;可识别商品的自助结算系统也很快进入各类线下门店;连追求安全至上的自动驾驶都用上了AI的视觉判断。Stable Diffusion和DALL·E 2的商业前景毋庸置疑,但它们关于AI新时代的开启充其量只是报幕员,ChatGPT才是主角,因为只有它解决了语言问题——起码看起来如此。语言问题的解决意味着新的交互革命,这是AI新纪元的另一个涵义。科幻作家特德·姜(Ted Chiang)体验ChatGPT后,将其背后的AI模型(GPT)比作互联网的“有损压缩”,意思是,当它学习了所有网上文字的统计规律后,就相当于获得了一个互联网信息的压缩版本——信息有所损失,但没那么多,重要的是,我们需要保存的文件更小了。假使外星人袭来,互联网毁灭,只要GPT还在,理论上我们能通过询问它获得原本存储在互联网上的所有东西。事实上,不用幻想外星人入侵,特德·姜想象的这一天可能在不久之后就会到来。当人们可以用自然语言与机器交流,而机器不仅听得懂这些自然语言,还能与人对话、按照人的话语行事——回答人的问题、画一幅画或者创作一个视频、生成一款游戏,根据反馈意见再次修改,直到提出需求的人满意为止——这时候,每个人的电脑、手机上还需不需要安装那么多应用软件就值得重新考虑。也许,只留一个ChatGPT就够了。此刻,相信你对无论ChatGPT还是更大范畴的AIGC到底意味着什么已有足够感知,可能也听过不少业界的溢美之词,比如英伟达创始人黄仁勋称现在为“AI的iPhone时刻”,比尔·盖茨认为AI革命的重要性不亚于互联网的诞生,微软CEO纳德拉则表示这种技术扩散堪比工业革命。我们打算就此打住,不再过多陈述包括ChatGPT在内的生成式AI可能掀起的产业革命——本期杂志的其余几篇文章会继续从不同视角讨论它。这里,我们后退一步,走到AIGC尤其ChatGPT的背后,看看这些最新出圈的AI明星究竟站在怎样的基石之上。01Transformer的力量ChatGPT发布之后,OpenAI团队成员接受采访,说公众的热情程度让他们意外,因为“ChatGPT背后的大部分技术并不新鲜”。这一说法属实,外界与之类似的总结是:ChatGPT是一种新时代的“炼金术”,把一个语言统计模型和基于人类反馈的强化学习放在一起,然后就是用可以拿到的语料、估计可行的人工神经网络层数放在一起“炼丹”。但相较于2018年以前的AI模型,ChatGPT背后的GPT至少有一样东西是新的,那就是看待语言问题的视角。人下一个会说出口的词,往往是统计学上下一个最可能出现的词——这个理念在语言学界早已有之,但将这种想法开发成对话语言模型是第一次。在此之前,几乎所有号称使用自然语言与人对话的机器人,从百度小度到微软小冰,从亚马逊Alexa到苹果Siri,甚至拿到日本公民身份的Sophia,本质上都是基于搜索树的查询系统。而自然语言处理(Natural language processing,NLP)领域也被工程化地划分为文本分类、机器翻译、阅读理解、文章分级等数十种任务,每种任务都对应一种或几种算法模型。这些看似不同的问题背后其实是同一个问题。比如,如果一个对话机器人“足够聪明”,聪明到可以在电影评论中预测下一个单词,那么它一定能完成一个简单的正负分类任务,成为一个电影分类器——区分动画片、爱情或者科幻电影——接管之前判别式AI所做的工作。通关密码就是2017年Google Brain团队写在论文里的Transformer(转换器),GPT的历代模型都基于这一算法架构。工作时,它会计算每个词与之前输入和生成的其他词之间的依赖关系(通常被称作“自注意机制”)。在最新发布的版本GPT-4中,模型能够注意到的单词量多达24576个。Transformer认为,语言的内部数据之间长跨度地相互依赖,Transformer所做的工作,就是将既有文字的“内部依赖关系”转换到未来的文字中去,也就是“生成”。信息内部的基本要素之间相互依赖,且具有预测功能——这种看待语言的视角之后也被用到了图片上。2021年,Google Brain团队再次推出一个叫“视觉转换器”(Vision Transformer,ViT)的模型,通过计算同一图像中像素与像素之间的依赖关系来识别图像。在此之前,语言和视觉被视为不同的东西。语言是线性的、序列的,视觉则是一种有空间结构的、并行的数据。但Transformer证明,图片也可以当成序列问题来解决,一张图片就是由像素起承转合地构成的句子。不仅图片,大部分问题都可以转化为序列问题。不要小看这种思维的转变。2018年,DeepMind发布的AlphaFold具有预测蛋白质结构的能力,靠的就是对氨基酸序列的学习,其背后架构也是Transformer。02语言的价值语言在人类智能中是圣杯,在人工智能中同样如此。无论AIGC这个词现在多么火热,在ChatGPT解决语言问题之前,人们对于AIGC的态度跟之前对待元宇宙没什么差别:热情,但持疑。至少2022年年底前的AIGC浪潮中,没有什么人提起过通用人工智能(Artificial General Intelligence,AGI)这个词。“涌现”也好,“质变”也罢,ChatGPT证明,机器可以从语言中得到的东西比我们预想的多。首先,它让我们看到推理能力部分可以通过“见得足够多”而模仿出来。就此宣称ChatGPT有理解能力当然是种错觉,我们明白它只是基于统计学上的关联在推论。但“真正在思考”与“表现得像是在思考”,有时候只是哲学上的区别。其次,基于Let’s think step by step的“思维链”(Chain-of-Thought prompting,CoT)技术表明,只要更富逻辑性地使用语言,机器就能学到更正确的东西,而不只是玩文字游戏。一个亚马逊在其CoT相关论文中使用过的例子是,给AI看一张画有饼干和薯条的图片,然后问它两者的共同点是什么,题目给出两个选项,A.都是软的;B.都是咸的。训练时,工程师并不会训练AI直接作出选A或者选B这样的简单关联,而是训练它生成一段逻辑充分的文字:对于饼干和薯条,AI都要被训练说出它们各自的特性,比如薯条是咸的,有的饼干也是咸的;薯条捏的时候会变形,所以薯条是软的,饼干捏的时候不会变形,所以饼干不是软的;所以薯条和饼干的共同点是都是咸的,答案是B。相似的一步步拆解问题的逻辑,你应该已经在ChatGPT的回答中看到过很多次,它们都基于提示词工程师(Prompt Engineer)对足够多问题的拆解。逻辑跳跃的教育常会让学生不得要领,逻辑缜密的解题思路则让儿童也能举一反三。用人类语言学习的AI同样如此。语言能力本身是种智能,而它携带的智能更多——从推理能力到数学,这是语言学家们此前低估的东西。如果把各AI模型看作一个大家族,此前的AI多数只能从信息和智能都有限的数据中学习,比如商品图片、人脸、交通信号灯,即使做文字识别或翻译,它们也只是把文字当成图片或成对信号,只有GPT这样基于Transformer的语言模型,第一次直接从语言的内在结构中学习。只要语言中有的东西,几何、色彩、味觉、速度、情感……假以时日和正确教育(比如更好的prompt),GPT这样的模型都能学到,除非语言中没有。03与AGI的距离ChatGPT与Transformer让人分别从使用体验和算法两个层面看到了通用人工智能的希望。尤其多模态的GPT-4推出之后,AI似乎变成了真正的全能助手——至少在网络上:理解人的自然语言,能帮人做会议总结、做PPT、分析股票市场、想广告文案、创作小说,还能根据意见不断修改图片,甚至一键生成与草图相似的网页代码。似乎用不了多久,AI与AI之间就要开始用人的语言交流了。但请注意,这些都不等于通用人工智能已经到来。所有基于Transformer的大型语言模型(Large Language Model),本质仍是文字游戏。它们无法在生成式技术内部解决事实性错误问题,也无法仅靠语言就掌握所有逻辑推理能力,比如“如果某事没有发生会怎样”的反事实推理。涉及到文字外部的世界,基于Transformer的多模态模型(比如GPT-4)能多大程度地做好各种模态间的信息转换,同样是个问题。过去,图与文、声音与画面、触觉、嗅觉等等之间的信息转换,在AI里面是个黑盒。电商场景中,一张图片能获得的文字描述的适配程度,取决于用于训练的成对图文语料质量。一旦图片是新奇的,是否能获得适配的文字描述就有待商榷。虽然已经将模态间的成对学习打碎到了像素级,Transformer无法足够好地转换文与图的问题仍然存在。假如要让ChatGPT制作一幅海报,你拟定需要写在海报上的标题和部分文字并确定海报风格,ChatGPT生成的东西可能看起来很像海报,但上面的每一个字都不是真正的字,而是笔画错乱的怪物。很简单,当ChatGPT开始制作海报,它就进入了理解像素关系和搬运像素的作画模式,而非输出文字的语言模式。一个不错的想象是,也许经过更多训练,ChatGPT能够学会写汉字,毕竟中文字画同源,而英语是表音文字,ChatGPT要学会可能就没那么容易。无论如何,一个会把文字转换成怪物的AI很难称得上是AGI。所以Transformer也并非一定是AI的未来。和Transformer一样正在受追捧的算法是扩散模型(Diffusion Model),目前文生图领域的几个明星产品,从Stability AI的Stable Diffusion到Google的Imagen和Parti,以及产品与公司同名的Midjourney,背后的算法都不是Transformer,而是扩散模型。3月初,通过在功能性磁共振成像(fMRI)数据上加载扩散模型,来自日本的两位学者重建了包含在fMRI数据中的视觉图像,初步表明扩散模型——而非Transformer——的生物合理性。本文版权归第一财经所有,未经许可不得转载或翻译。本文刊载于《第一财经》杂志2023年4月刊识别下图二维码购买本期杂志,可收获更多AI领域深度报道。}

我要回帖

更多关于 商务型网站的风格与特色比较 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信