怎么按固定格式给文件夹内文件排序里的文件排序,

MS Office模拟试题题库
本试题来自:(2009年MS Office模拟试题,)六、PowerPoint 操作题打开指定文件夹下的演示文稿yswg03(如囱),按以下要求完成对此文稿的修饰并保存。
       
(1)将第1张幻灯片版式改变为“垂直排列文本”,第2张文本部分的动画效果设置为“盒状展开”;在演示文稿的开始处插入一张“只有标题”幻灯片,作为文稿的第1张幻灯片,标题输入“年度总结大会”,并设置为60磅、加粗、黑体。
(2)使用“Topo”模板演示文稿设计模板修饰全文;将全部幻灯片切换效果设置成“剪切”。答案解析:①在考生文件夹下打开yswg03演示文稿。
②选定第1张幻灯片,执行“格式”→“幻灯片版式”命…… 或者
您可能感兴趣的试题
简答题:()在指定文件夹下打开文档WT03.DOC,其内容如下:
【文档开始】
什么是“软考”
全国计算机软件水平考试是由国家信息化办公室宏观指导,中国计算机软件专业技术资格和水平考试中心具体组织实施的全国性专业化计算机水平考试。
自1991年开始实施至今,已经历了近十年的锤炼与发展,考生规模不断扩大,在国内外产生了较大影响。
目前,软件水平考试每年举办2次,采取全国统一组织、统一大纲、统一命题、统一合格标准、颁发统一证书的方法实行。
【文档结束】
按照要求完成以下操作:
(1)将标题段(什么是软考)设置为二号、红色、宋体;标题段居中对齐,字符间距加宽2磅。
(2)将正文各段文字(全国计算机……方法实行。)设置为小四号、宋体;将文中所有“考试”加着重号;各段落首行缩进0.74厘米,段前间距10磅。
(3)将正文第3段(目前,……方法实行。)分为等宽的两栏,栏宽7厘米,栏间加分隔线,并以WD03A.DOC为名保存文档。
2.在指定文件夹下打开文档WT03A.DOC,其内容如下:
【文档开始】
二级报考科目
二级 二级 C
二级 二级 Visual FoxPro
二级 二级 Visual Basic
二级 二级 Access
二级 二级 Java
二级 二级 Delphi
【文档结束】
按照要求完成以下操作:
(1)将标题段(二级报考科目)设置为四号、黑体、加粗、,居中:将文中后7行文字转换为一个7行2列的表格,设置表格列宽为4厘米,行高16磅。
(2)合并表格第1列第2~7行单元格,将合并后单元格中重复的名称删除,只保留1个。设置外框线为红色1.5磅双窄线,内框线为绿色0.75磅单实线。第1行单元格设为黄色底纹,并以WD03B.DOC为名保存文档。答案解析:有,简答题:()某考试网站的主页地址是:HTTP://LOCALHOST/DJSK/INDEX.HTM。打开此主页,浏览“计算机考试”页面,查找“NCRE一级介绍”页面内容,并将它以文本文件的格式保存到指定的目录下,命名为“1jswks47.txt”。
(2)接收并阅读由xuexq@mail.ncre8.net发来的E-mail,并回复(回复内容:邮件已经收到,请于明日汇款!)。答案解析:有,
MS Office模拟试题最新试卷
MS Office模拟试题热门试卷在word中想用vba实现依次新建文档并插入指定文件夹中的图片并命名保存在指定文件夹?_百度知道
在word中想用vba实现依次新建文档并插入指定文件夹中的图片并命名保存在指定文件夹?
doc”,关闭“张三.jpg”……我想用vba来实现,“李四3.jpg”.jpg”,“张三2;tupian中存放了所有需要的图片,在D,然后保存为“张三.jpg”:&#92,插入“李四1,新建一个文档。然后新建文档,保存为“李四,“李四2.jpg”!问题的难点在于,“张三2.doc”,“李四2.jpg”?二是如何查找并判断文件夹中某人的图片有几张,以个人的名称命名为“张三1;,“李四3.jpg”,插入图片“张三1.jpg”:一是如何在word的vba中表示姓名这个变量.jpg”.doc&quot,“李四1我的问题是,然后下一个……每个人一个文档.jpg”
谢谢关注,但是我要的vba来自动完成这些工作,不是要菜单插入的那个操作!
提问者采纳
@qq,剩下的是否就是名字了、除去数字?方便的话把样表和图片发我邮箱看看?3、每个人的几张照片是否需要按顺序插入; 这样的格式?2;& 姓名+序号&nbsp、图片的命名是否都是&nbsp1
嗯,都是跟你说的一样!图片直接插入word文档里面就可以,意思是其实一个文档里就只有几张图片!
你,这里有字数限制。
提问者评价
真心的谢谢!直接运行提示错误,加一句 on error resume next 问题解决!
其他类似问题
4人觉得有用
新建文档的相关知识
按默认排序
其他1条回答
有个菜单插入
等待您来回答
下载知道APP
随时随地咨询
出门在外也不愁查看: 5364|回复: 5
请问如何批量下载某网站固定目录下的特定文件
例:网站.COM\FILE\随机文件名.mp3
yang271828
迅雷的批量下载,用%s代替文件名(猜测),具体的可以去看看迅雷的帮助文件
如果是有链接的下载,用迅雷的批量下载,不过我觉得楼主的意思是要下载某网站目录下的文件.
用浏览器的文件--保存,如果不行,推荐使用webzip这个软件
WebZIP 是著名的离线浏览器软件,在它的帮助下你能够完整下载网站的内容,或者你也可以选择自行设置下载的层数、文件类型、网页与媒体文件的定位以及网址过滤器,以便按己所需地获取网站内容。你下载到本地硬盘中的网站内容将仍保持原本的 HTML 格式,其文件名与目录结构都不会变化,这样可以准确地提供网站的镜像。现在使用 WebZIP 中新的 FAR 插件工具,你可以把下载的内容制作成 HTML-帮助文件(.chm)。你也可以把抓取的网站内容压缩为 ZIP 文件。
用telport下载
我这里有现成的
居然穿不上来。。。郁闷
楼上几位回答很努力,但都似乎不行。。俺都试过。因为是不规则文件名,迅雷无法自动排序
还有整站下载软件也不行,也下载不了。
整载下载只下载相关文件,结果效果都不理想,反倒是把网站的一些HTML目录结构会下了,而且他只是针对层设定,而没有“设定文件夹”
Copyright & KaFan & All Rights Reserved.
Powered by Discuz! X3.1( 苏ICP备号 ) GMT+8,怎么固定XP文件夹里的排列方式_百度知道
怎么固定XP文件夹里的排列方式
件默认是按名称排序。帮帮忙,比较麻烦,有办法固定吗,上传的时候弹出来的对话框都是默认用名称排的,我想按修改时间排序,上传图片?我主要是下载图片,每次打开的时候都要重新排一次,谢谢了
提问者采纳
先按你需要的排列方式排好序,然后在文件夹菜单栏点工具-文件夹选项-查看-应用到所有文件夹,即可固定。
提问者评价
其他类似问题
文件夹的相关知识
等待您来回答
下载知道APP
随时随地咨询
出门在外也不愁482,381 三月 独立访问用户
您目前处于:
浅析Hadoop文件格式
浅析Hadoop文件格式
图1:Sequencefile 文件结构
相关厂商内容
相关赞助商
全球软件开发大会,4月23-25日,北京,!
RCFile是Hive推出的一种专门面向列的数据格式。 它遵循&先按列划分,再垂直划分&的设计理念。当查询过程中,针对它并不关心的列时,它会在IO上跳过这些列。需要说明的是,RCFile在map阶段从远端拷贝仍然是拷贝整个数据块,并且拷贝到本地目录后RCFile并不是真正直接跳过不需要的列,并跳到需要读取的列, 而是通过扫描每一个row group的头部定义来实现的,但是在整个HDFS Block 级别的头部并没有定义每个列从哪个row group起始到哪个row group结束。所以在读取所有列的情况下,RCFile的性能反而没有SequenceFile高。
图2:RCFile 文件结构
Avro是一种用于支持数据密集型的二进制文件格式。它的文件格式更为紧凑,若要读取大量数据时,Avro能够提供更好的序列化和反序列化性能。并且Avro数据文件天生是带Schema定义的,所以它不需要开发者在API 级别实现自己的Writable对象。最近多个Hadoop 子项目都支持Avro 数据格式,如Pig 、Hive、Flume、Sqoop和Hcatalog。
图3:Avro MR 文件格式
除上面提到的3种二进制格式之外,文本格式的数据也是Hadoop中经常碰到的。如TextFile 、XML和JSON。 文本格式除了会占用更多磁盘资源外,对它的解析开销一般会比二进制格式高几十倍以上,尤其是XML 和JSON,它们的解析开销比Textfile 还要大,因此强烈不建议在生产系统中使用这些格式进行储存。 如果需要输出这些格式,请在客户端做相应的转换操作。 文本格式经常会用于日志收集,数据库导入,Hive默认配置也是使用文本格式,而且常常容易忘了压缩,所以请确保使用了正确的格式。另外文本格式的一个缺点是它不具备类型和模式,比如销售金额、利润这类数值数据或者日期时间类型的数据,如果使用文本格式保存,由于它们本身的字符串类型的长短不一,或者含有负数,导致MR没有办法排序,所以往往需要将它们预处理成含有模式的二进制格式,这又导致了不必要的预处理步骤的开销和储存资源的浪费。
Hadoop实际上支持任意文件格式,只要能够实现对应的RecordWriter和RecordReader即可。其中数据库格式也是会经常储存在Hadoop中,比如Hbase,Mysql,Cassandra,MongoDB。 这些格式一般是为了避免大量的数据移动和快速装载的需求而用的。他们的序列化和反序列化都是由这些数据库格式的客户端完成,并且文件的储存位置和数据布局(Data Layout)不由Hadoop控制,他们的文件切分也不是按HDFS的块大小(blocksize)进行切割。
文件存储大小比较与分析
我们选取一个TPC-H标准测试来说明不同的文件格式在存储上的开销。因为此数据是公开的,所以读者如果对此结果感兴趣,也可以对照后面的实验自行做一遍。Orders 表文本格式的原始大小为1.62G。 我们将其装载进Hadoop 并使用Hive 将其转化成以上几种格式,在同一种LZO 压缩模式下测试形成的文件的大小。
Orders_text1
Orders_tex2
Orders_seq1
SequenceFile
Orders_seq2
SequenceFile
Orders_rcfile1
Orders_rcfile2
Orders_avro_table1
Orders_avro_table2
表1:不同格式文件大小对比
从上述实验结果可以看到,SequenceFile无论在压缩和非压缩的情况下都比原始纯文本TextFile大,其中非压缩模式下大11%, 压缩模式下大6.4%。这跟SequenceFile的文件格式的定义有关: SequenceFile在文件头中定义了其元数据,元数据的大小会根据压缩模式的不同略有不同。一般情况下,压缩都是选取block 级别进行的,每一个block都包含key的长度和value的长度,另外每4K字节会有一个sync-marker的标记。对于TextFile文件格式来说不同列之间只需要用一个行间隔符来切分,所以TextFile文件格式比SequenceFile文件格式要小。但是TextFile 文件格式不定义列的长度,所以它必须逐个字符判断每个字符是不是分隔符和行结束符。因此TextFile 的反序列化开销会比其他二进制的文件格式高几十倍以上。
RCFile文件格式同样也会保存每个列的每个字段的长度。但是它是连续储存在头部元数据块中,它储存实际数据值也是连续的。另外RCFile 会每隔一定块大小重写一次头部的元数据块(称为row group,由hive.io.rcfile.record.buffer.size控制,其默认大小为4M),这种做法对于新出现的列是必须的,但是如果是重复的列则不需要。RCFile 本来应该会比SequenceFile 文件大,但是RCFile 在定义头部时对于字段长度使用了Run Length Encoding进行压缩,所以RCFile 比SequenceFile又小一些。Run length Encoding针对固定长度的数据格式有非常高的压缩效率,比如Integer、Double和Long等占固定长度的数据类型。在此提一个特例&&Hive 0.8引入的TimeStamp 时间类型,如果其格式不包括毫秒,可表示为&YYYY-MM-DD HH:MM:SS&,那么就是固定长度占8个字节。如果带毫秒,则表示为&YYYY-MM-DD HH:MM:SS.fffffffff&,后面毫秒的部分则是可变的。
Avro文件格式也按group进行划分。但是它会在头部定义整个数据的模式(Schema), 而不像RCFile那样每隔一个row group就定义列的类型,并且重复多次。另外,Avro在使用部分类型的时候会使用更小的数据类型,比如Short或者Byte类型,所以Avro的数据块比RCFile 的文件格式块更小。
序列化与反序列化开销分析
我们可以使用Java的profile工具来查看Hadoop 运行时任务的CPU和内存开销。以下是在Hive 命令行中的设置:
hive&set mapred.task.profile=
hive&set mapred.task.profile.params =-agentlib:hprof=cpu=samples,heap=sites, depth=6,force=n,thread=y,verbose=n,file=%s
当map task 运行结束后,它产生的日志会写在$logs/userlogs/job- 文件夹下。当然,你也可以直接在JobTracker的Web界面的logs或jobtracker.jsp 页面找到日志。
我们运行一个简单的SQL语句来观察RCFile 格式在序列化和反序列化上的开销:
hive& select O_CUSTKEY,O_ORDERSTATUS from orders_rc2 where O_ORDERSTATUS='P';
其中的O_CUSTKEY列为integer类型,O_ORDERSTATUS为String类型。在日志输出的最后会包含内存和CPU 的消耗。
下表是一次CPU 的开销:
20&&&&&&&&&&
org.apache.hadoop.hive.ql.io.RCFile$Reader.getCurrentRow
org.apache.hadoop.hive.serde2.columnar.ColumnarStruct.init
org.apache.hadoop.hive.ql.io.RCFileRecordReader.getPos
org.apache.hadoop.hive.ql.io.RCFileRecordReader.next
表2:一次CPU的开销
其中第五列可以对照上面的Track信息查看到底调用了哪些函数。比如CPU消耗排名20的函数对应Track:
TRACE 315554: (thread=200001)
org.apache.hadoop.hive.ql.io.RCFile$Reader.getCurrentRow(RCFile.java:1434)
org.apache.hadoop.hive.ql.io.RCFileRecordReader.next(RCFileRecordReader.java:88)
org.apache.hadoop.hive.ql.io.RCFileRecordReader.next(RCFileRecordReader.java:39)
org.apache.hadoop.hive.bineHiveRecordReader.doNext(CombineHiveRecordReader.java:98)
org.apache.hadoop.hive.bineHiveRecordReader.doNext(CombineHiveRecordReader.java:42)
org.apache.hadoop.hive.ql.io.HiveContextAwareRecordReader.next(HiveContextAwareRecordReader.java:67)
其中,比较明显的是RCFile,它为了构造行而消耗了不必要的数组移动开销。其主要是因为RCFile 为了还原行,需要构造RowContainer,顺序读取一行构造RowContainer,然后给其中对应的列进行赋值,因为RCFile早期为了兼容SequenceFile所以可以合并两个block,又由于RCFile不知道列在哪个row group结束,所以必须维持数组的当前位置,类似如下格式定义:
Array&RowContainer extends List&Object&&
而此数据格式可以改为面向列的序列化和反序列化方式。如:
Map&array&col1Type&,array&col2Type&,array&col3Type&....&
这种方式的反序列化会避免不必要的数组移动,当然前提是我们必须知道列在哪个row group开始到哪个row group结束。这种方式会提高整体反序列化过程的效率。
关于Hadoop文件格式的思考
1 高效压缩
Hadoop目前尚未出现针对数据特性的高效编码(Encoding)和解码(Decoding)数据格式。尤其是支持Run Length Encoding、Bitmap 这些极为高效算法的数据格式。HIVE-2065 讨论过使用更加高效的压缩形式,但是对于如何选取列的顺序没有结论。关于列顺序选择可以看Daniel Lemire的一篇论文 《Reordering Columns for Smaller Indexes》[1]。作者同时也是Hive 0.8中引入的bitmap 压缩算法基础库的作者。该论文的结论是:当某个表需要选取多个列进行压缩时,需要根据列的选择性(selectivity)进行升序排列,即唯一值越少的列排得越靠前。 事实上这个结论也是Vertica多年来使用的数据格式。其他跟压缩有关的还有HIVE-2604和HIVE-2600。
2 基于列和块的序列化和反序列化
不论排序后的结果是不是真的需要,目前Hadoop的整体框架都需要不断根据数据key进行排序。除了上面提到的基于列的排序,序列化和反序列化之外,Hadoop的文件格式应该支持某种基于块(Block) 级别的排序和序列化及反序列化方式,只有当数据满足需要时才进行这些操作。来自Google Tenzing论文中曾将它作为MR 的优化手段提到过。
&Block Shuffle:正常来说,MR 在Shuffle 的时候使用基于行的编码和解码。为了逐个处理每一行,数据必须先排序。然而,当排序不是必要的时候这种方式并不高效,我们在基于行的shuffle基础上实现了一种基于block的shuffle方式,每一次处理大概1M的压缩block,通过把整个block当成一行,我们能够避免MR框架上的基于行的序列化和反序列化消耗,这种方式比基于行的shuffle 快上3倍以上。&
3 数据过滤(Skip List)
除常见的分区和索引之外,使用排序之后的块(Block)间隔也是常见列数据库中使用的过滤数据的方法。Google Tenzing同样描述了一种叫做ColumnIO 的数据格式,ColumnIO在头部定义该Block的最大值和最小值,在进行数据判断的时候,如果当前Block的头部信息里面描述的范围中不包含当前需要处理的内容,则会直接跳过该块。Hive社区里曾讨论过如何跳过不需要的块 ,可是因为没有排序所以一直没有较好的实现方式。包括RCFile格式,Hive的index 机制里面目前还没有一个高效的根据头部元数据就可以跳过块的实现方式。
4 延迟物化
真正好的列数据库,都应该可以支持直接在压缩数据之上不需要通过解压和排序就能够直接操作块。通过这种方式可以极大的降低MR 框架或者行式数据库中先解压,再反序列化,然后再排序所带来的开销。Google Tenzing里面描述的Block Shuffle 也属于延迟物化的一种。更好的延迟物化可以直接在压缩数据上进行操作,并且可以做内部循环, 此方面在论文《Integrating Compression and Execution in Column-Oriented Database System》[5]的5.2 章节有描述。 不过考虑到它跟UDF 集成也有关系,所以,它会不会将文件接口变得过于复杂也是一件有争议的事情。
5 与Hadoop框架集成
无论文本亦或是二进制格式,都只是最终的储存格式。Hadoop运行时产生的中间数据却没有办法控制。包括一个MR Job在map和reduce之间产生的数据或者DAG Job上游reduce 和下游map之间的数据,尤其是中间格式并不是列格式,这会产生不必要的IO和CPU 开销。比如map 阶段产生的spill,reduce 阶段需要先copy 再sort-merge。如果这种中间格式也是面向列的,然后将一个大块切成若干小块,并在头部加上每个小块的最大最小值索引,就可以避免大量sort-mege操作中解压&反序列化&排序&合并(Merge)的开销,从而缩短任务的运行时间。
其他文件格式
Hadoop社区也曾有对其他文件格式的研究。比如,IBM 研究过面向列的数据格式并发表论文《Column-Oriented Storage Techniques for MapReduce》[4],其中特别提到IBM 的CIF(Column InputFormat)文件格式在序列化和反序列化的IO消耗上比RCFile 的消耗要小20倍。里面提到的将列分散在不同的HDFS Block 块上的实现方式RCFile 也有考虑过,但是最后因为重组行的消耗可能会因分散在远程机器上产生的延迟而最终放弃了这种实现。此外,最近Avro也在实现一种面向列的数据格式,不过目前Hive 与Avro 集成尚未全部完成。有兴趣的读者可以关注avro-806 和hive-895。
Hadoop 可以与各种系统兼容的前提是Hadoop MR 框架本身能够支持多种数据格式的读写。但如果要提升其性能,Hadoop 需要一种高效的面向列的基于整个MR 框架集成的数据格式。尤其是高效压缩,块重组(block shuffle),数据过滤(skip list)等高级功能,它们是列数据库相比MR 框架在文件格式上有优势的地方。相信随着社区的发展以及Hadoop 的逐步成熟,未来会有更高效且统一的数据格式出现。
[1]压缩列顺序选择
Reordering Columns for Smaller Indexes 论文地址
[2]Hive与Avro 集成
[3]Google 的Tenzing 论文
Tenzing A SQL Implementation On The MapReduce Framework
[4]IBM Column-Oriented Storage Techniques for MapReduce
[5]Integrating compression and execution in column-oriented database systems
[6]Avro 项目主页
[7]MapReduce and Parallel DBMSs: Friends or Foes , repetitive record parsing 小节
江志伟,关注分析型MPP数据库和Hadoop,建有个人博客 , 五月份Hadoop Definitive Guide 3rd 要出了,如果找到有兴趣合作翻译的朋友,可能会翻译这本经典书籍。
感谢对本文的审校。
给InfoQ中文站投稿或者参与内容翻译工作,请邮件至。也欢迎大家通过新浪微博()或者腾讯微博()关注我们,并与我们的编辑和其他读者朋友交流。
告诉我们您的想法
允许的HTML标签: a,b,br,blockquote,i,li,pre,u,ul,p
当有人回复此评论时请E-mail通知我
个人博客http://www.gemini5201314.net/
允许的HTML标签: a,b,br,blockquote,i,li,pre,u,ul,p
当有人回复此评论时请E-mail通知我
允许的HTML标签: a,b,br,blockquote,i,li,pre,u,ul,p
当有人回复此评论时请E-mail通知我
Matt McComb
赞助商链接
InfoQ每周精要
通过个性化定制的新闻邮件、RSS Feeds和InfoQ业界邮件通知,保持您对感兴趣的社区内容的时刻关注。
<及所有内容,版权所有 &#169;
C4Media Inc.
服务器由 提供, 我们最信赖的ISP伙伴。
北京创新网媒广告有限公司
京ICP备号-7}

我要回帖

更多关于 文件夹排序 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信