GA工具箱可以显示出matlab符号运算工具箱时间吗

检索--百度百家
搜索到200篇"高埗镇西力士能延长时间吗【+扣:4148..."相关的文章
4月20日,东莞市委副书记、水乡管委会主任姚康带队从东莞出发,漂洋过海亲赴意大利拜会陆逊梯卡集团总部,积极推动陆逊梯卡集团将国内销售中心落户...
尽管无人机技术正不断发展,而且也被部分消费者所接纳,但是不得不说的是,无人机仍旧存在着很大的问题,这个问题甚至可以用缺陷来形容。如果将这个技...
怎么延长啪啪时间?啪啪对于夫妻来说,既是一种可以拉近夫妻感情的方式,也是一种保证两性健康必做的事情。不过,很多男人发现自己在papapa中非...
吴天明导演遗作电影《百鸟朝凤》日前宣布,其密钥获得延期,放映时间延长至日23点59分。
FDA批准Afinitor口服片剂用于治疗那些采用了其他抗癌药之后病情仍持续恶化的晚期肾癌患者。10mg每天1次有或无食物。Afinitor...
可是这次明显我感到情况不妙。不过这并非是我网站问题,而是整体搜索引擎的态势发生了转变。
日前,发表在《Cell Reports》上的一项研究表明,当给予低剂量的情绪稳定剂锂时,果蝇的寿命会延长16%。对于锂稳定情绪的作用机理,科...
单纯网红的生命周期只有2年,怎么破?
100天33本书 04 :《番茄工作法》
律伙伴,法律咨询,找好律师的最佳平台
做生意,有一句至理名言,那就是“羊毛出在羊身上”。这句话用在京东,再合适不过。
企业要想获得并且维持客户,延长客户的生命周期,就要为客户提供满足其个性化需求的产品或服务。
夏季不知不觉已经来到了我们的身边,越来越高的气温令制冷的家电产品成为了市场上热销的宠儿,尤其是以电扇为代表的家用电器更是成为了很多家庭的常客...
016年行将过半,风口浪尖上VR游戏爆款还没诞生,电子竞技、二次元、游戏直播已经接连迎来爆发,移动游戏成功实现对端游市场规模的超越。
在携带BRCA基因突变的卵巢癌患者中,Niraparib治疗组的中位PFS相比安慰剂对照组延长了15.5个月(21 VS 5.5个月),真是太惊艳。
昨天的大会,最大的黑马是一个胃癌新药,暂时还没有大名,小名叫做IMAB362,是一个德国的企业生产的。
最近推特在视频上不断发力,强化视频业务,将视频时长延长至140秒,收购人工智能企业加强视频领域的机器学习……推特这么拼,无非是希望吸引用户,...
酒店的积分别过期噢,同学们
延长石油环保欠账频发 三采油厂合并两月便遭漏油事故
搜索到242个"高埗镇西力士能延长时间吗【+扣:4148..."相关的作家
智能电视/机顶盒行业独立观察员,微信公...
永远都在追逐铲屎人
宗宁 知名自媒体人,微营销专家,硬件领...
前媒体人,前互联网从业者,公关从业者。
智能吧,带你玩
智能家居行业从业者
智能家居从业者
sunmesh智能家居
和君集团合伙人
云饮智能:您的掌上科技头条首选!
关注智能硬件与智能科技!
知识,问答,互动
一份耕耘,带来可能不仅一份收获
关注手机数码行业的那些事
智能电视行业领导者!
聚焦智能家居行业
引领育婴方式的变革,创新科学育儿方式
专注于普及智能硬件生活。
专注智能领域研究把握行业动向!
智能硬件数据、资讯、排行榜
智能前线测评工作室
专注美业O2O研究的90后互联网小兵!
智能生活,虎超龙骧。
72变致力于打造智能生活的专业推荐平台
中国机电一体化协会
最新,最快,最准的智能家居资讯
开放·创新,敢为人先!
专注网络营销
让智能走进生活
专注智能硬件
科技、情怀、实践
打造智能家居生活
机器人领域研究与实验者
做人,要有格局。
影评人,自由撰稿人
时间价值让您享受极致理财
硬科技,酷生活
坚持原创!内容包括游戏、动漫、心理学信息
胸小话少表情屌。
车坛新锐,资深媒体人出品
不务正业的投资经理
微信公众号:ceo1024
产品与投资的践行,文娱与新媒体的窥视。
绝对有料的企业级IT报道
专栏作者、影评作者、媒体人
新现实主义旅行者
资深互联网评论人
腾讯、新浪、虎嗅、雷锋撰稿
唱吧创始人兼CEO
传统零售与互联网互动的营销平台
站长自媒体,SEO工程师,网络营销研究者
专注于互联网行业的资讯分享与互动
PPmoney联合创始人
分享计算机技术、技巧与互联网观察
李勇SEO博客博主李勇
O2O第一自媒体
汽车&互联网
专业出品原创科技类视频
科技新知触手可及
房地产与物业企业转型社区O2O的思想智库
专注于互联网数字产品行销!
分享移动互联网时代的创新人物与事件
专注数码产品
精准营销=准确的内容+正确的受众
O2O最有特色自媒体,传播O2O理念
IPO观察最佳自媒体
未曾失败的人也一定未曾成功过。
反其道而行之,水善利万物而不争。
写一本SEO教程,谈谈人生。
搞机人生 不疯魔不成活
专注于餐饮O2O报道
免费分享最新的SEO技术
一个服务投资人和创业者的平台。
老尚分享seo知识,结交seo友人
分享喜欢分享的,让数码成为乐趣!
互联网观察员,网站SEO优化实战派、
Showroom,时尚产业整合平台。
聚焦移动,洞察营销
Don‘t panic!
关注中国企业家,被中国企业家关注!
非名山不留仙迹
电脑之家网广州站
OCR技术交流:。
关注IoT产业成长
谈谈营销,分享SEO干货
我爱优化网创始人,自媒体人
PlayStation 资讯发布。
SSL证书签发机构,微信CAWoSign
大庆SEO创始人
用自己的亲身体验,反馈给大家真实的一面。
新锐营销价值交流平台
科技视角、极客精神
及时提供SEO动态和优化实例
伟大是熬出来的,编程是逼出来的!
互联网观察记录
创业产品第一报道平台
识食物者为俊杰
SSL提供商,微信GlobalSign
维奥网weiosx 中国mac软件平台
致力IT娱乐圈,不黑不快乐
数字货币研究
为个人站长与企业SEO提供全面的站长资讯
以负责的态度分享、跟踪、解读前沿信息
全球最有影响力的高端互联网技术人脉平台
Myautotime创始人
指导上海高品质生活方式的终极指南
我自信,我快乐!
shishusaiwai
觉白分享SEO技术.Q
科技不息,分享不止。
专注华南地区创投报道的新媒体
随心体验,快乐分享
原创、精选优质O2O行业内容。
OCCS软件云工厂
国内首家智能硬件PaaS云平台
玩玩数码,看看新闻
因为户外,所以LOKER
保险资讯门户网站
用心体验 为你呈现
科技自媒体,让更多人体验科技的快乐!
用态度测评,用热爱给你好玩 uxigoo
专注于原创
致力于发现酷公司、讲出酷点、传播酷事!
有态度、有趣味地观察IT和互联网的一切
魔多,让虚拟现实更好玩。
分享实施新闻、聚焦经济热点、独眼视角
OpenCom周百通
关注智能硬件
玩转智能产品,做女性喜欢看的科技文章。
爱科技、爱生活、爱搞机、不搞基的工科男。
开启互联网餐饮之路
“因缘幸会,遂得所图”。
玩得是态度
专注互联网资讯、数码产品测评经验分享。
开启智玩新时代
动漫游戏资讯
定义企业云服务
互联网数据分析、知识管理解决方案
意见有不同,来喷来撕,反正都是瞎逼逼。
科技类自媒体
资深互联网运营与营销实战家。
关注科技创新,解读创业新思维。
由传统IT投奔互联网热潮
专注于IT技术创新与发展的互联网媒体平台
Forest评测官方账号 IT自媒体
吹响phone铃生活,数码资讯小驿站。
资讯,观点,评测
基于用户洞察的精细化运营管理工具
新三板之家首席研究员Home君
从完整的人到行业精英
用自己的足迹,寻求匠心分享
互联网智能硬件测评
睿·信科技
Jhonse技术博客
国内最具影响力的潮流媒体
关注Android最佳实践
创业如此吴节操
轻奢潮包恶搞主义
爱分享,爱生活,爱传播生活中的正能量
专业ASO优化分析
提升App开发技术效率,大幅降低工作量
No Tech. No Life.
专注分享系统化猎头体系。
助力智能零售升级
数据驱动增长
为航空而生
从用户角度出发,给您最真实的体验测评。
互联网营销领域实践分享!
专注ASO干货分享
基于互联网的 SaaS 在线客服软件
ToMASTER明日大师
爱数码,爱搞机,爱拍照,伪专业,不胡闹。
任职国际著名投资集团投资人
小白听的懂得财经指南
资深互联网运营经理,互联网重度用户
英雄联盟每日最新资讯
用事实说各领域的事。
互联网资讯最新平台
shengdayouxi
全球区块链行业最全面的资讯报道和深度分析
VZOOY——分享科技的真诚与乐趣!
创业路上正能量
职场导师,企业管理实战专家
互联网从业人员专属领地
国外的足球一样圆。
聊聊物联网趋势、热点以及感悟。
关注新公司、新技术、新模式、新投资
又一个新媒体
车聚网,网聚汽车人的力量。
个人微信号liqin3738
一个承载人类梦想 用科技改变世界的平台
www.coursera.org
影评人,专注电影评论
专注VR资讯及娱乐的大众媒体
全世界在等待新的科技故事
TripAdvisor猫途鹰
用电影的心,做原创的梦
亚太旅行专家号,我们专治不会玩!
WeMedia联合创始人
关注科技、经济
财经媒体人
87870带你关注虚拟现实
知识需要用心去经营,需要用只会去道破!
90后草根站长,17推论坛创始人
资深的数码玩家。
关注移动互联网、IT行业。
财经记者 包罗万象
中国第一网页游戏门户
“公关广告”狗的吐槽窝!吐完你就痛快啦!
小睡耍数码
百度智客测评师,数码达人。
字为枕书当梦
百度新闻客户端
百度新闻客户端
扫描二维码下载
订阅 "百家" 频道
观看更多百家精彩新闻下次自动登录
现在的位置:
& 综合 & 正文
KALDI工具箱运行TIMIT语料库库实例教程
TIMIT数据库介绍:
TIMIT数据库由630个话者组成,每个人讲10句,美式英语的8种主要方言。
TIMIT S5实例:
首先,将TIMIT.ISO中的TIMIT复制到主文件夹。
1.进入对应的目录,进行如下操作:
zhangju :~$ cd kaldi-trunk/egs/timit/s5/
:~/kaldi-trunk/egs/timit/s5$
sudo local/timit_data_prep.sh /home/zhangju/TIMIT
会看到如下显示:
Creating coretest set.
# of utterances in coretest set = 192
Creating dev set.
# of utterances in dev set = 400
Finalizing test
Finalizing dev
timit_data_prep succeeded.
于是在/home/zhangju/kaldi-trunk/egs/timit/s5文件夹下新生成data文件夹,其内包含local文件夹以及相关内容。
2 在终端输入:
local/timit_train_lms.sh data/local(下载、计算文本,用以建立语言模型)
local/timit_format_data.sh(处理与fst有关的东西)
3创建train的mfcc:
sudo steps/make_mfcc.sh data/train exp/make_mfcc/train mfccs 4
(要对train,dev,test创建)
Succeeded creating MFCC features for train
sudo steps/make_mfcc.sh data/test exp/make_mfcc/test mfccs 4
Succeeded creating MFCC features for test
sudo steps/make_mfcc.sh data/dev exp/make_mfcc/dev mfccs 4
Succeeded creating MFCC features for dev
4训练单音素系统(monophone systom)
sudo steps/train_mono.sh data/train data/lang exp/mono
Computing cepstral mean and variance statistics
Initializing monophone system.
Compiling training graphs
Aligning data
Aligning data
Aligning data
Aligning data
Aligning data
Aligning data
Aligning data
Aligning data
Aligning data
Aligning data
Aligning data
Aligning data
Aligning data
Aligning data
于是,新建了exp/mono文件夹
scripts/mkgraph.sh --mono data/lang exp/mono exp/mono/graph(制图)
fsttablecompose data/lang/L.fst data/lang/G.fst
fstdeterminizestar --use-log=true
fstminimizeencoded
fstisstochastic data/lang/tmp/LG.fst
-0. -0.0912761
warning: LG not stochastic.
fstcomposecontext --context-size=1 --central-position=0 --read-disambig-syms=data/lang/tmp/disambig_phones.list --write-disambig-syms=data/lang/tmp/disambig_ilabels_1_0.list data/lang/tmp/ilabels_1_0
fstisstochastic data/lang/tmp/CLG_1_0.fst
-0. -0.0912761
warning: CLG not stochastic.
make-h-transducer --disambig-syms-out=exp/mono/graph/disambig_tid.list --transition-scale=1.0 data/lang/tmp/ilabels_1_0 exp/mono/tree exp/mono/final.mdl
fstminimizeencoded
fstdeterminizestar --use-log=true
fsttablecompose exp/mono/graph/Ha.fst data/lang/tmp/CLG_1_0.fst
fstrmsymbols exp/mono/graph/disambig_tid.list
fstrmepslocal
fstisstochastic exp/mono/graph/HCLGa.fst
0. -0.091291
HCLGa is not stochastic
add-self-loops --self-loop-scale=0.1 --reorder=true exp/mono/final.mdl
steps/decode_deltas.sh exp/mono data/$test data/lang exp/mono/decode_$test &
done(解码test数据集(test是*/s5/data中dev、test文件夹中的test文件夹))
终端输出结果是:[1] 2307
6.scripts/average_wer.sh exp/mono/decode_*/wer & exp/mono/wer
steps/decode_deltas.sh exp/mono data/$test data/lang exp/mono/decode_$test
steps/decode_deltas.sh exp/mono data/$test data/lang exp/mono/decode_$test
7从单音素系统中获得alignments:(分别从mono文件夹中的train,dev,test中获得)(用以训练其他系统)
steps/align_deltas.sh data/train data/lang exp/mono exp/mono_ali_train
Computing cepstral mean and variance statistics
Aligning all training data
方法二:修改run.sh中的timit路径,但后直接运行run.sh
TIMIT S3实例
1 数据准备,输入:
local/timit_data_prep.sh
/home/zhangju/TIMIT
终端显示:
Creating coretest set.
(这是说话人的名字,前面加M,F分别表示男性和女性)
# of utterances in coretest set = 192 (核心测试集中有192句话)
Creating dev set.
# of utterances in dev set = 400 (设备集中有400句话)
Finalizing test (完成test)
Finalizing dev (完成dev)
timit_data_prep succeeded.
local/timit_train_lms.sh data/local
终端显示为
Not installing the kaldi_lm toolkit since it is already there.
(kaldi_lm工具箱里有:
compute_perplexity计算复杂度(用于对语言模型作评估,复杂度越低越好)
discount_ngrams给n阶语法模型作平滑处理(留出频率给实际会出现的但ngram中没出现的词语组合)
get_raw_ngrams(得到原始n阶语法模型)
get_word_map.pl*(得到词语的映射表)
interpolate_ngrams(补充(修改)n阶语法模型)
finalize_arpa.pl(完成arpa(arpa是一种格式,协议),是interpolate_ngrams中调用的)
map_words_in_arpa.pl(得到arpa格式的词语)
merge_ngrams(合并、融合n阶语法模型)
merge_ngrams_online(在线合并、融合n阶语法模型)
optimize_alpha.pl(使alpha最优化)
prune_lm.sh(删去出现频率较低的数据)
prune_ngrams(删去出现频率较低的数据)
scale_configs.pl
train_lm.sh(训练语言模型)
uniq_to_ngrams
Creating phones file, and monophone lexicon (mapping phones to itself). (创建音子文件及单音素词典)
Creating biphone model(创建双音子模型)
Training biphone language model in folder data/local/lm (训练双音子语言模型)
Creating directory data/local/lm/biphone (创建目录data/local/lm/biphone )
Getting raw N-gram counts ()
Iteration 1/7 of optimizing discounting parameters
discount_ngrams: for n-gram order 1, D=0.400000, tau=0.900000 phi=2.000000
interpolate_ngrams: 60 words in wordslist
discount_ngrams: for n-gram order 2, D=0.600000, tau=0.900000 phi=2.000000
discount_ngrams: for n-gram order 3, D=0.800000, tau=1.100000 phi=2.000000
discount_ngrams: for n-gram order 1, D=0.400000, tau=0.675000 phi=2.000000
discount_ngrams: for n-gram order 2, D=0.600000, tau=0.675000 phi=2.000000
discount_ngrams: for n-gram order 3, D=0.800000, tau=0.825000 phi=2.000000
interpolate_ngrams: 60 words in wordslist
discount_ngrams: for n-gram order 1, D=0.400000, tau=1.215000 phi=2.000000
discount_ngrams: for n-gram order 2, D=0.600000, tau=1.215000 phi=2.000000
discount_ngrams: for n-gram order 3, D=0.800000, tau=1.485000 phi=2.000000
interpolate_ngrams: 60 words in wordslist
Perplexity over
words is 17.013357
Perplexity over
words (excluding 579.000000 OOVs) is 17.460842
sys 0m0.000s
Perplexity over
words is 17.016472
Perplexity over
words (excluding 579.000000 OOVs) is 17.464985
sys 0m0.000s
Perplexity over
words is 17.021475
Perplexity over
words (excluding 579.000000 OOVs) is 17.471402
sys 0m0.000s
optimize_alpha.pl: alpha=-2. is too negative, limiting it to -0.5
Projected perplexity change from setting alpha=-0.5 is 17..1, reduction of 0.86085
Alpha value on iter 1 is -0.5
Iteration 2/7 of optimizing discounting parameters
discount_ngrams: for n-gram order 1, D=0.400000, tau=0.450000 phi=2.000000
discount_ngrams: for n-gram order 2, D=0.600000, tau=0.450000 phi=2.000000
discount_ngrams: for n-gram order 3, D=0.600000, tau=0.550000 phi=2.000000
interpolate_ngrams: 60 words in wordslist
interpolate_ngrams: 60 words in wordslist
discount_ngrams: for n-gram order 1, D=0.400000, tau=0.450000 phi=2.000000
discount_ngrams: for n-gram order 2, D=0.600000, tau=0.450000 phi=2.000000
discount_ngrams: for n-gram order 3, D=0.800000, tau=0.550000 phi=2.000000
interpolate_ngrams: 60 words in wordslist
discount_ngrams: for n-gram order 1, D=0.400000, tau=0.450000 phi=2.000000
discount_ngrams: for n-gram order 2, D=0.600000, tau=0.450000 phi=2.000000
discount_ngrams: for n-gram order 3, D=1.080000, tau=0.550000 phi=2.000000
Perplexity over
words is 17.011355
Perplexity over
words (excluding 579.000000 OOVs) is 17.457880
sys 0m0.008s
Perplexity over
words is 17.011355
Perplexity over
words (excluding 579.000000 OOVs) is 17.457880
sys 0m0.000s
Perplexity over
words is 17.011355
Perplexity over
words (excluding 579.000000 OOVs) is 17.457880
sys 0m0.004s
optimize_alpha.pl: objective fu returning alpha=0.7
Projected perplexity change from setting alpha=0.7 is 17..011355, reduction of 0
Alpha value on iter 2 is 0.7
Iteration 3/7 of optimizing discounting parameters
discount_ngrams: for n-gram order 1, D=0.400000, tau=0.450000 phi=2.000000
discount_ngrams: for n-gram order 2, D=0.600000, tau=0.450000 phi=2.000000
discount_ngrams: for n-gram order 3, D=1.360000, tau=0.412500 phi=2.000000
interpolate_ngrams: 60 words in wordslist
discount_ngrams: for n-gram order 1, D=0.400000, tau=0.450000 phi=2.000000
discount_ngrams: for n-gram order 2, D=0.600000, tau=0.450000 phi=2.000000
discount_ngrams: for n-gram order 3, D=1.360000, tau=0.550000 phi=2.000000
interpolate_ngrams: 60 words in wordslist
discount_ngrams: for n-gram order 1, D=0.400000, tau=0.450000 phi=2.000000
discount_ngrams: for n-gram order 2, D=0.600000, tau=0.450000 phi=2.000000
discount_ngrams: for n-gram order 3, D=1.360000, tau=0.742500 phi=2.000000
interpolate_ngrams: 60 words in wordslist
Perplexity over
words is 17.011355
Perplexity over
words (excluding 579.000000 OOVs) is 17.457880
sys 0m0.000s
Perplexity over
words is 17.011355
Perplexity over
words (excluding 579.000000 OOVs) is 17.457880
sys 0m0.004s
Perplexity over
words is 17.011355
Perplexity over
words (excluding 579.000000 OOVs) is 17.457880
sys 0m0.000s
optimize_alpha.pl: objective fu returning alpha=0.7
Projected perplexity change from setting alpha=0.7 is 17..011355, reduction of 0
Alpha value on iter 3 is 0.7
Iteration 4/7 of optimizing discounting parameters
discount_ngrams: for n-gram order 1, D=0.400000, tau=0.450000 phi=2.000000
discount_ngrams: for n-gram order 2, D=0.600000, tau=0.450000 phi=2.000000
discount_ngrams: for n-gram order 3, D=1.360000, tau=0.935000 phi=1.750000
interpolate_ngrams: 60 words in wordslist
discount_ngrams: for n-gram order 1, D=0.400000, tau=0.450000 phi=2.000000
discount_ngrams: for n-gram order 2, D=0.600000, tau=0.450000 phi=2.000000
discount_ngrams: for n-gram order 3, D=1.360000, tau=0.935000 phi=2.000000
interpolate_ngrams: 60 words in wordslist
discount_ngrams: for n-gram order 1, D=0.400000, tau=0.450000 phi=2.000000
discount_ngrams: for n-gram order 2, D=0.600000, tau=0.450000 phi=2.000000
discount_ngrams: for n-gram order 3, D=1.360000, tau=0.935000 phi=2.350000
interpolate_ngrams: 60 words in wordslist
Perplexity over
words is 17.011355
Perplexity over
words (excluding 579.000000 OOVs) is 17.457880
sys 0m0.000s
Perplexity over
words is 17.011355
Perplexity over
words (excluding 579.000000 OOVs) is 17.457880
sys 0m0.000s
Perplexity over
words is 17.011355
Perplexity over
words (excluding 579.000000 OOVs) is 17.457880
sys 0m0.000s
optimize_alpha.pl: objective fu returning alpha=0.7
Projected perplexity change from setting alpha=0.7 is 17..011355, reduction of 0
Alpha value on iter 4 is 0.7
Iteration 5/7 of optimizing discounting parameters
discount_ngrams: for n-gram order 1, D=0.400000, tau=0.450000 phi=2.000000
discount_ngrams: for n-gram order 2, D=0.450000, tau=0.450000 phi=2.000000
discount_ngrams: for n-gram order 3, D=1.360000, tau=0.935000 phi=2.700000
interpolate_ngrams: 60 words in wordslist
interpolate_ngrams: 60 words in wordslist
discount_ngrams: for n-gram order 1, D=0.400000, tau=0.450000 phi=2.000000
discount_ngrams: for n-gram order 2, D=0.600000, tau=0.450000 phi=2.000000
discount_ngrams: for n-gram order 3, D=1.360000, tau=0.935000 phi=2.700000
interpolate_ngrams: 60 words in wordslist
discount_ngrams: for n-gram order 1, D=0.400000, tau=0.450000 phi=2.000000
discount_ngrams: for n-gram order 2, D=0.810000, tau=0.450000 phi=2.000000
discount_ngrams: for n-gram order 3, D=1.360000, tau=0.935000 phi=2.700000
Perplexity over
words is 17.008195
Perplexity over
words (excluding 579.000000 OOVs) is 17.454326
sys 0m0.004s
Perplexity over
words is 17.011355
Perplexity over
words (excluding 579.000000 OOVs) is 17.457880
sys 0m0.000s
Perplexity over
words is 17.018212
Perplexity over
words (excluding 579.000000 OOVs) is 17.465417
sys 0m0.000s
optimize_alpha.pl: alpha=-0.985 is too negative, limiting it to -0.5
Projected perplexity change from setting alpha=-0.5 is 17..7, reduction of 0.27904
Alpha value on iter 5 is -0.5
Iteration 6/7 of optimizing discounting parameters
interpolate_ngrams: 60 words in wordslist
discount_ngrams: for n-gram order 1, D=0.400000, tau=0.450000 phi=2.000000
discount_ngrams: for n-gram order 1, D=0.400000, tau=0.450000 phi=2.000000
discount_ngrams: for n-gram order 2, D=0.300000, tau=0.337500 phi=2.000000
discount_ngrams: for n-gram order 3, D=1.360000, tau=0.935000 phi=2.700000
interpolate_ngrams: 60 words in wordslist
discount_ngrams: for n-gram order 2, D=0.300000, tau=0.450000 phi=2.000000
discount_ngrams: for n-gram order 3, D=1.360000, tau=0.935000 phi=2.700000
interpolate_ngrams: 60 words in wordslist
discount_ngrams: for n-gram order 1, D=0.400000, tau=0.450000 phi=2.000000
discount_ngrams: for n-gram order 2, D=0.300000, tau=0.607500 phi=2.000000
discount_ngrams: for n-gram order 3, D=1.360000, tau=0.935000 phi=2.700000
Perplexity over
words is 17.008198
Perplexity over
words (excluding 579.000000 OOVs) is 17.454134
sys 0m0.000s
Perplexity over
words is 17.006972
Perplexity over
words (excluding 579.000000 OOVs) is 17.452861
sys 0m0.000s
Perplexity over
words is 17.006526
Perplexity over
words (excluding 579.000000 OOVs) is 17.452349
sys 0m0.000s
Projected perplexity change from setting alpha=0.507 is 17..4, reduction of 0.633575
Alpha value on iter 6 is 0.507
Iteration 7/7 of optimizing discounting parameters
discount_ngrams: for n-gram order 1, D=0.400000, tau=0.450000 phi=2.000000
discount_ngrams: for n-gram order 2, D=0.300000, tau=0.576145 phi=1.750000
discount_ngrams: for n-gram order 3, D=1.360000, tau=0.935000 phi=2.700000
interpolate_ngrams: 60 words in wordslist
discount_ngrams: for n-gram order 1, D=0.400000, tau=0.450000 phi=2.000000
discount_ngrams: for n-gram order 2, D=0.300000, tau=0.576145 phi=2.350000
discount_ngrams: for n-gram order 3, D=1.360000, tau=0.935000 phi=2.700000
discount_ngrams: for n-gram order 1, D=0.400000, tau=0.450000 phi=2.000000
discount_ngrams: for n-gram order 2, D=0.300000, tau=0.576145 phi=2.000000
discount_ngrams: for n-gram order 3, D=1.360000, tau=0.935000 phi=2.700000
interpolate_ngrams: 60 words in wordslist
interpolate_ngrams: 60 words in wordslist
Perplexity over
words is 17.006845
Perplexity over
words (excluding 579.000000 OOVs) is 17.452750
sys 0m0.000s
Perplexity over
words is 17.006575
Perplexity over
words (excluding 579.000000 OOVs) is 17.452414
sys 0m0.000s
Perplexity over
words is 17.006336
Perplexity over
words (excluding 579.000000 OOVs) is 17.452127
sys 0m0.000s
Projected perplexity change from setting alpha=0.686 is 17..5, reduction of 0.498972
Alpha value on iter 7 is 0.686
Final config is:
D=0.4 tau=0.45 phi=2.0
D=0.3 tau=0.728 phi=2.69
D=1.36 tau=0.935 phi=2.7
Discounting N-grams.
discount_ngrams: for n-gram order 1, D=0.400000, tau=0.450000 phi=2.000000
discount_ngrams: for n-gram order 2, D=0.300000, tau=0.576145 phi=2.690827
discount_ngrams: for n-gram order 3, D=1.360000, tau=0.935000 phi=2.700000
Computing final perplexity
Building ARPA LM (perplexity computation is in background)
interpolate_ngrams: 60 words in wordslist
interpolate_ngrams: 60 words in wordslist
Perplexity over
words is 17.006029
Perplexity over
words (excluding 579.000000 OOVs) is 17.451754
local/timit_format_data.sh
终端显示:
Creating L.fst
Done creating L.fst
Creating L_disambig.fst
Done creating L_disambig.fst
Creating G.fst
arpa2fst -
Processing 1-grams
Processing 2-grams
Connected 0 states without outgoing arcs.
remove_oovs.pl: removed 0 lines.
G.fst created. How stochastic is it ?
fstisstochastic data/lang_test/G.fst
0 -0.0900995
fsttablecompose data/lang_test/L_disambig.fst data/lang_test/G.fst
How stochastic is LG.fst.
fstisstochastic data/lang_test/G.fst
0 -0.0900995
fstisstochastic
fsttablecompose data/lang/L.fst data/lang_test/G.fst
0 -0.0900994
How stochastic is LG_disambig.fst.
fsttablecompose data/lang_test/L_disambig.fst data/lang_test/G.fst
fstisstochastic
0 -0.0900994
First few lines of lexicon FST:
timit_format_data succeeded.
输入:mfccdir=mfccs
for tes do
steps/make_mfcc.sh data/$test exp/make_mfcc/$test $mfccdir 4
终端显示:
Succeeded creating MFCC features for train
Succeeded creating MFCC features for test
Succeeded creating MFCC features for dev
2 训练单音素系统,终端输入:
steps/train_mono.sh data/train data/lang exp/mono
终端显示:
Computing cepstral mean and variance statistics
Initializing monophone system.
Compiling training graphs
Aligning data
Aligning data
Aligning data
Aligning data
Aligning data
Aligning data
Aligning data
Aligning data
Aligning data
Aligning data
Aligning data
Aligning data
Aligning data
Aligning data
scripts/mkgraph.sh --mono data/lang_test exp/mono exp/mono/graph(制图)
终端显示:
fsttablecompose data/lang_test/L_disambig.fst data/lang_test/G.fst
fstminimizeencoded
fstdeterminizestar --use-log=true
fstisstochastic data/lang_test/tmp/LG.fst
0 -0.0901494
warning: LG not stochastic.
fstcomposecontext --context-size=1 --central-position=0 --read-disambig-syms=data/lang_test/tmp/disambig_phones.list --write-disambig-syms=data/lang_test/tmp/disambig_ilabels_1_0.list data/lang_test/tmp/ilabels_1_0
fstisstochastic data/lang_test/tmp/CLG_1_0.fst
0 -0.0901494
warning: CLG not stochastic.
make-h-transducer --disambig-syms-out=exp/mono/graph/disambig_tid.list --transition-scale=1.0 data/lang_test/tmp/ilabels_1_0 exp/mono/tree exp/mono/final.mdl
fsttablecompose exp/mono/graph/Ha.fst data/lang_test/tmp/CLG_1_0.fst
fstdeterminizestar --use-log=true
fstminimizeencoded
fstrmsymbols exp/mono/graph/disambig_tid.list
fstrmepslocal
fstisstochastic exp/mono/graph/HCLGa.fst
0 -0.0901494
HCLGa is not stochastic
add-self-loops --self-loop-scale=0.1 --reorder=true exp/mono/final.mdl
3 解码测试的数据集,输入
steps/decode_deltas.sh exp/mono data/$test data/lang exp/mono/decode_$test &
终端显示:
3.1计算结果,输入:
scripts/average_wer.sh exp/mono/decode_*/wer & exp/mono/wer
终端显示:
steps/decode_deltas.sh exp/mono data/$test data/lang exp/mono/decode_$test
steps/decode_deltas.sh exp/mono data/$test data/lang exp/mono/decode_$test
4 从单音素系统中获得排列
创建排列用以训练其他系统,如ANN-HMM。
steps/align_deltas.sh data/train data/lang exp/mono exp/mono_ali_train
终端显示:
Computing cepstral mean and variance statistics
Aligning all training data
steps/align_deltas.sh data/dev data/lang exp/mono exp/mono_ali_dev
方法二:修改相应的TIMIT路径之后,直接运行run.sh
TIMIT S4实例此脚本是用于构建一个音位识别器
WORKDIR=/home/zhangju/ss4(自己找个有空间的路径作为WORKDIR)
mkdir -p $WORKDIR
cp -r conf local utils steps path.sh $WORKDIR
cd $WORKDIR
. path.sh(此文件中的环境变量KALDIROOT要自己修改路径,改到自己裝的kaldi文件中。KALDIROOT=/home/mayuan/kaldi-trunk(我用nano改的。))
local/timit_data_prep.sh --config-dir=$PWD/conf --corpus-dir=/home/zhangju/TIMIT --work-dir=$WORKDIR
&&&&推荐文章:
【上篇】【下篇】}

我要回帖

更多关于 matlab ga工具箱 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信