Tensorboard使用进不去

tensorflow - tensorboard: command not found - Stack Overflow
to customize your list.
This site uses cookies to deliver our services and to show you relevant ads and job listings.
By using our site, you acknowledge that you have read and understand our , , and our .
Your use of Stack Overflow’s Products and Services, including the Stack Overflow Network, is subject to these policies and terms.
Join Stack Overflow to learn, share knowledge, and build your career.
or sign in with
I installed TensorFlow on my MacBook Pro 10.12.5 from source code by steps described here.
TensorFlow itself works well but I cannot run TensorBoard.
It seems tensorboard is not installed properly.
When I try running tensorboard --logdir=... it says -bash: tensorboard: command not found. And locate tensorboard
returns empty.
Do I need any additional step to install tensorboard?
If no other methods work then try this one. It may help you.
1. check the location of Tensorflow
pip show tensorflow
It will show output something like this.
Name: tensorflow
Version: 1.4.0
Location: /home/abc/xy/.local/lib/python2.7/site-packages
2. Go to that location you get from the above output.
cd /home/abc/xy/.local/lib/python2.7/site-packages
There you can see a directory named tensorboard.
cd tensorboard
3. There must be a file named 'main.py'.
4. Execute the following command to launch the tensorboard.
python main.py --logdir=/path/to/log_file/
If you installed Tensorflow with Virtualenv, then first Check whether you have activated the tensorflow envirnoment or not
If you have activated the tensorflow session then your command prompt will look like this :
If not, Write the below command and try running tensorboard again.
source ~/tensorflow/bin/activate
What version of Tensorflow are you running? Older versions don't include Tensorboard.
If you do have a newer version, I see you are using OSX, which apparently caused some problems for other people:
Check this page to fix it!
As a MacPorts user, I'm used to running things from out of the path
/opt/local/bin. When you install a python package via MacPorts, that's
where the executables go --- even if they're just symbolic links to
files to a main python repository in
/opt/local/Library/Frameworks/Python.framework/Versions/2.7/bin/
pip installs things into the latter directory, but apparently does NOT
add the symbolic link to /opt/local/bin
This has never been an issue (or even come up) for me before, because
I've only used pip to install (non-executable) packages which load
from within python. In conclusion, there is a
/opt/local/Library/Frameworks/Python.framework/Versions/2.7/bin/tensorboard
This is a pip / MacPorts-SOP mismatch / user error*, and nothing to do
with tensorboard in particular. Please close this issue. Thanks for
your help.
*my 'locate' database was in the process of updating but hadn't completed
Your Answer
Sign up or
Sign up using Google
Sign up using Facebook
Post as a guest
Post as a guest
Post Your Answer
By clicking &Post Your Answer&, you acknowledge that you have read our updated ,
and , and that your continued use of the website is subject to these policies.
Not the answer you're looking for?
Browse other questions tagged
Stack Overflow works best with JavaScript enabledTensorBoard:Visualizing Learning 学习笔记TensorBoard:Visualizing Learning 学习笔记充电小肉丸百家号为了更方便的理解、调试和优化TF程序,我们可以使用TensorBoard(可视化工具)。可以使用TensorBoard查看graph,绘制图表执行过程中的定量指标。TensorBoard是完全可配置的。1 序列化数据(Serializing the data)到磁盘TensorBoard通过读取TF事件文件进行操作,该文件包含了在TF运行过程中产生的摘要数据(summary data)首先创建从中要收集摘要数据的TF图,并决定图中的哪些点(nodes)需要summary operations。比如需要记录随时间进行,学习率的变化和目标函数的改变。我们可以分别将学习率输出节点和损失输出节点加上tf.summary.scalar操作。并给每个scalar_summary一个有含义的标记,如‘learning rate’和‘loss function’。或者想看看特定层的激活函数的分布,或梯度和权重的分布。通过将tf.summary.histogram分别附加到梯度输出和权重的变量,来收集数据。所有的summary operations:tf.summary.tensor_summarytf.summary.scalartf.summary.histogramtf.summary.audiotf.summary.imagetf.summary.mergetf.summary.merge_allClass for writing Summariestf.summary.FileWritertf.summary.FileWriterCache为了产生这些摘要数据,我们需要运行这些summary nodes。单独管理这些节点比较麻烦,因此使用tf.summary.merge_all将它们合并为一个单独的操作,来产生所有的摘要数据。最后通过tf.summary.FileWriter将摘要数据写到磁盘。手写字体识别例子的源代码:https://github.com/tensorflow/tensorflow/blob/master/tensorflow/examples/tutorials/mnist/mnist_with_summaries.py其中程序的最后一段:parser.add_argument('--data_dir', type=str, default='/tmp/tensorflow/mnist/input_data', help='Directory for storing input data') parser.add_argument('--log_dir', type=str, default='/tmp/tensorflow/mnist/logs/mnist_with_summaries', help='Summaries log directory')注:上面代码中路径的写法,绝对路径为该python文件所在的磁盘根路径+default指定的路径。比如该python在C:\XXX\XXX,则default'C:/tmp/tensorflow/mnist/logs/mnist_with_summaries'可以在程序中根据需要改为自定义的路径如:default='C:\\TMP\\TF\\MNIST_data' (或者default='C:/TMP/TF/MNIST_data') default='C:\\TMP\\TF\\logs\\mnist_with_summaries' (或者default='C:/TMP/TF/logs/mnist_with_summaries')或者在命令行运行程序时,指定自定义路径如:python xx.py --data_dir=C:\\TMP\\TF\\MNIST_data --log_dir=C:\\TMP\\TF\\logs\\mnist_with_summaries (或者python xx.py --data_dir=C:/TMP/TF/MNIST_data --log_dir=C:/TMP/TF/logs/mnist_with_summaries)2 启动TensorBoard在命令行运行如下命令:tensorboard --logdir=path/to/log-directory在本例中:tensorboard --logdir=C:/TMP/TF/logs/mnist_with_summaries --debug (或者tensorboard --logdir=/TMP/TF/logs/mnist_with_summaries --debug)注意:tensorborad的启动命令的根目录需要和日志的根目录保持一致。在浏览器中输入地址localhost:6006可以看到有7大模块:SCALARSIMAGESAUDIOGRAPHSDISTRIBUTIONSHISTOGRAMSEMBEDDINGS本文由百家号作者上传并发布,百家号仅提供信息发布平台。文章仅代表作者个人观点,不代表百度立场。未经作者许可,不得转载。充电小肉丸百家号最近更新:简介:科技有温度,科技态度。作者最新文章相关文章tensorboard 无法显示的问题
tensorboard感觉功能很强大,想着如果能熟悉它的应用,应该对调参有很大帮助,所以一直很想学习tensorboard的各个功能板块
首先我的tensorflow是安装在c盘的
我们看到使用tensorboard的很多官方指导都告诉我们 打开tensorboard的方法是这样的:
首先将我们训练的日志文件放在某个我们事先设定的路径下,如这里我将训练日志文件放在“D:\My_project\blogs_code-master\tensorflow-mnist-multi-gpu\train_log”
然后在弹出的框中输入cmd
最后在命令窗口输入tensorboard –logdir D:\My_project\blogs_code-master\tensorflow-mnist-multi-gpu\train_log
接下来,打开谷歌浏览器,输入网址
“No graph definition files were found”
what? 对于这个问题我思考了很久,怎么会出现这样的问题,检查路径,都是对的呀
于是我又把生成的train_log文件夹复制到tensorflow安装的路径下,即c盘的某个文件夹下,随后又输入命令:
tensorboard --logdir C:\ProgramData\Anaconda3\Lib\site-packages\tensorflow\models\research\object_detection\models\train_log
再打开网址 ,结果出来了
后来再想这不科学呀,如果每次训练都需要把日志复制到tensorflow的安装路径下多麻烦呀,而且也不易于管理,是不是还有其他方法,经过探索,我终于知道答案了
大家注意看我发的第一张图中绿色的标记,前面默认路径是C盘,如果我想cd到D盘的某个文件夹,假设输入命令
cd D:\My_project\blogs_code-master\tensorflow-mnist-multi-gpu\train_log
发现windows终端没有发现任何改变
对于windows终端要想改变盘符,只需要输入
然后可以看到盘符改变了,再cd到对应的盘符路径下就可以了
这说明直接cd不能改变盘符路径,也就是上面的tensorboard没有找到正确的train_log路径
所以我们应该先改变盘符,再cd到train_log的路径,再执行tensorboard命令
结果出来了
Tensorboard“无法显示此网站”
windows 环境下Tensorboard 不能显示的解决办法
tensorboard无法使用以及对应网址无法打开
Tensorboard出现空白页解决方案
TensorBoard 简介及使用流程
TensorBoard 可视化 不显示数据问题 No scalar data was found...
TensorBoard可视化结构管理工具在Windows下的使用
Ubuntu环境下TensorBoard 可视化 不显示数据问题 No scalar data was found...(作者亲测有效)
关于tensorboard的使用不显示的问题解决方法
Windows 上 Tensorboard显示空白问题
没有更多推荐了,详解 TensorBoard-如何调参 - 简书
详解 TensorBoard-如何调参
什么是 TensorBoard
TensorBoard 是 TensorFlow 上一个非常酷的功能,我们都知道神经网络很多时候就像是个黑盒子,里面到底是什么样,是什么样的结构,是怎么训练的,可能很难搞清楚,而 TensorBoard 的作用就是可以把复杂的神经网络训练过程给可视化,可以更好地理解,调试并优化程序。
我们在建立神经网络模型解决问题时,例如想要用一个简单的 CNN 进行数字识别时,最想知道的就是什么样的模型,即 weights 和 bias 是多少的时候,可以使得 accuracy 达到较优,而这些变量都可以在 Tensorboard 中以一个可视化的方式看到,
在 scalars 下可以看到 accuracy,cross entropy,dropout,layer1 和 layer2 的 bias 和 weights 等的趋势。
在 images 和 audio 下可以看到输入的数据。
在 graphs 中可以看到模型的结构。
在 histogram 可以看到 activations,gradients 或者 weights 等变量的每一步的分布,越靠前面就是越新的步数的结果。
distribution 和 histogram 是两种不同的形式,可以看到整体的状况。
在 embedding 中可以看到用 PCA 主成分分析方法将高维数据投影到 3D 空间后的数据的关系。
如何用 TensorBoard
在官网有两篇关于 TensorBoard 的教程,学习之后总感觉还是不太会用,只是讲了如何做出图来,可是到底该怎么发挥 TensorBoard 的功能呢,不能只是看看热闹,画出来图了,该怎么解读呢?
今天就来个更充实的,仍然以 MNIST 为例,来看如何一点点完善一个 model。
下面是一个普通的 convolutional 网络结构,我们全文会在这个结构上进行调优:
这是初级的代码:
先来看一下它的训练结果:
接下来将分为以下几步:
step 1: 查看 graph 结构
step 2:查看 accuracy,weights,biases
step 3: 修改 code
step 4: 选择最优模型
step 5: 用 embedding 进一步查看 error 出处
那让我们来打开 board ,看发生了什么,为什么这么低
step 1: 查看 graph 结构
想要可视化 graph,就先只传一个 graph 进去
在左边我们看到了一个 convolution,
在右边还有一些东西不知道哪里来的:
所以需要清理 graph
graph 是基于 naming system,它有 ops,ops 有 names
我们可以给某些具体的 node 特有的 name:
Node names
Name scopes
首先给一些重要 ops 赋予 name
如 weights 和 bias,
然后用 name scope ,这样所有的命名后的 ops 都会保持一个整洁的结构
接着给 placeholder names
然后接着给 training 或者 loss names
把这个 clean 后的存到 另外一个文件夹
这一次的 graph 就会比较清晰:
有个 training block,连接着需要训练的参数,因为当你计算 gradients 时,就会用到相关的 variables
我们在代码中,先是有 x 的 placeholder,然后 reshape 了一下,
接着我们可以看一下 convolution layer
这样我们就可以看到,图里的结构和我们期望的是一样的
这里我们看到 cross entropy 是如何进行的
有相似结构的 block 会有同样的 color
如果既用了 cpu 也用了 gpu ,点上 color by device 就会有不同颜色
打开 trace inputs,就可以看到你选中的变量,都与哪些变量有关
step 2:查看 accuracy,weights,biases
接下来我们需要用到 summaries:
summary 就是一个 tf op,它会从你的 graph 里面提取一个 regular tensor,然后后产生一个 protocol buffers
一种是 scalar,是针对单一变量的
还有 image 的可以输出 image,可以用来检查是否 data 是否是正确的格式
还可以看生成的 音频数据
histogram 可以看数据的分布
还有一个 tensor summary,可以用来看任何东西,因为 tf 中的所有都是 tensor 形式的
接下来让我们 add 一些 summary 吧:
例如来看 cross entropy 和 accuracy 是怎么随时间变化的,
还可以看我们的 input 是不是 MNIST 数据
还可以加一些 add 一些 histogram,来看 weights,biases,activations,
我们运行 summary op,然后得到 protocol buffers,
然后写入 disk
然后用一个 merge 把所有的 summary 合成一个 target,就不用一个一个地去运行写入展示了
可以看到 accuracy 大约在 10% 徘徊:
原始的 data 是有很多噪音的,因为它只是随机抽样
smooth 之后可以看到清晰的 trend
还可以看到 cross entropy 的趋势,训练过程中一直都是常数,应该是 model 有点问题了
再看 image 里面的图,嗯,应该是 MNIST 里的数据没错
histogram 和 distribution 是两种不同的形式
distribution 可以看到 conv 卡在 0 上
histogram 可以看到只在 0 处有个尖峰
这样我们可以看到,我们在建立 layer 时出了一些问题,
因为当 bias 和 weights 都是 0 的话,我们传递给 activations 的就只是 0 gradients,这时没有训练任何东西
让我们来看看 这一层 怎么了
step 3: 修改 code
我们看到 weights 和 bias 被 初始化成 0 了
那我们可以把它们改成更合理的初始化:
这样我们可以看到更好的结果了:
cross entropy 迅速降到 0,
accuracy 迅速升到 1.
同样的,如果我们看 histogram,它也有了更好看的趋势
也可以把随着时间变化的展示,改成 overlap
在 distribution 可以看到类似的信息,
例如看最开始训练的时候有非常高的 maximum,
然后变成 90%, 60%
现在发现 model 基本训练的不错了
step 4: 选择最优模型
接下来 tf 还可以进行调参
可以看不同版本的 model 在 训练不同的 variable 时哪个更好。
我们要尝试 不同的 learning rates,不同的 convolutional 层,
建立一个 hyperparameter string,然后在打开 board 时指向了上一层文件夹,这样可以比较不同的具体的结果:
在左下角这里可以看到不同的 hyperparameter 设置:
然后可以看到,cross entropy 在不同的 超参数下是怎样的走势
可以看到有些模型几乎没有训练出东西,有些比较成功
我们还可以看最 wrost 的模型,它的 learning rate = 1 E-03,
还可以看最 best 的模型,它的 learning rate = 1 E-04,
还可以在左下角输入想单独比较的超参数,例如 conv=1
还可以只看一条
可以用 wall 来看到 不同的模型是在不同的时间训练的
还可以通过 realtive 看到不同 模型 用了不同长度的训练时间
可以看到 bias 等在不同模型中是如何变化的
在 graph 中可以看到 这是个只有一个 convolutional 层的模型,也可以选择 run 的是哪个模型,就能看到相应的 graph:
step 5: 用 embedding 进一步查看 error 出处
接下来是最酷的功能,embedding 可视化,它可以把高维数据映射到 3D
我们有了 input,然后经过 NN,embedding 就是我们的 NN 是如何处理信息的 表现
我们需要建立 variable 来装测试集的每个 image 的 embedding,
然后建立 config,用来知道哪里可以找到每个 MNIST 的 sprite 图片,这样就可以在浏览器看到缩略图了,并用 label 把它们组织起来
用 filewrite 写入 disk,每 500 步保存一个 model checkpoint,包含所有的 variables,包括 embedding 的
这样可以看到测试集的 1024 个数据,
我们现在用的 PCA,选了 top 3 的主成分,然后展示了 3D 的表示图,
color by label 后,可以看到我们的 model 分类的比较不错哦,
例如 1 都聚到了一起,因为 1 就是 1,没有和它比较容易混淆的数字
如果用 TSNE,它可以 保持 local 相似性,
我们可以看到 1 识别的比较好,但是在 3,5,8 上面遇到了一些困难,因为它们看起来有点相近,
接下来让我们来看一下一个 bad 预测,例如这个 7, 它被放在了 1 的一堆中,也就是 model 把一个 7 标记成了 1,
然后我们可以放大一下,这个 7 确实很像 1,那我们的 model 的确是会把它看成 1, 还有那个 9 也很像 1.
好了,上面基本把 TensorBoard 各板块上主要的功能简单介绍了一下,而且用了一个小例子,看如何借用各个板块的可视化结果来帮助我们调优模型:
step 1: 查看 graph 结构
step 2:查看 accuracy,weights,biases
step 3: 修改 code
step 4: 选择最优模型
step 5: 用 embedding 进一步查看 error 出处
希望也可以帮到大家,据说后面 TensorFlow 会推出更炫的而且更专业的可视化功能,例如语音识别的,有了这种可视化的功能,最需要精力的调优环节也变得更有趣了。
本文 code:
转载记得联系 ?
也许可以找到你想要的
我是 Alice
喜欢人工智能,行动派
创造力,思考力,学习力提升修炼进行中
欢迎志同道合的小伙伴们和我一起学习
微信:XerDudu,备注简书
公众号:极客X养成计划
转载记得联系作者哦!
五. Tensorflow图的可视化
深度学习模型通常使用错综复杂的神经网络。比如,文献【19】描述的谷歌Inception模型就是一个有36000个独立单元的卷积神经网络。而文献【8】描述的某种长短时记忆模型(LSTM)用到了15000个节点。为了使用和调优如此复...
简单线性回归 import tensorflow as tf import numpy
# 创造数据 x_data = numpy.random.rand(100).astype(numpy.float32) y_data = x_data*0.1 + 0.3 print...
介绍 先前的教程展示了一个简单的线性模型,对MNIST数据集中手写数字的识别率达到了91%。 在这个教程中,我们会在TensorFlow中实现一个简单的卷积神经网络,它能达到大约99%的分类准确率,如果你做了一些建议的练习,准确率还可能更高。 卷积神经网络在一张输入图片上移...
在利用深度学习网络进行预测性分析之前,我们首先需要对其加以训练。目前市面上存在着大量能够用于神经网络训练的工具,但TensorFlow无疑是其中极为重要的首选方案之一。 这就是Tensor的全部含义。在卷积神经网络等深度学习方案当中,大家会需要与四维张量打交道。但本示例中提...
陈伟才人工智能学堂 在TensorFlow入门教程中,我们采用了 Softmax 算法深度学习MNIST图库,短短几行代码,学习准确率92%左右。上一篇文章,我们也学习了更复杂的卷积神经网络CNN算法,本文将使用CNN来学习MNIST,其准确率相对sof...
01 他一个普通的会计本科毕业生,学校不差但也谈不上顶尖,父母是普通的工薪阶层,家里有自住的一套房子,就业时父母没有什么可靠的关系,所以毕业后自己回家投简历找了家普通企业,做着一份普通的财务工作,拿着普通的工资,在普通的时间谈恋爱然后结婚。 就是这样一个看似普通到不能再普通...
知道双立人开工厂店很久了一直没机会去看看今天刚巧路过 更像是体验店居然有陈列古董 因为地处偏僻店内没人但音乐陈列灯光都令人舒适 认真严谨的德国态度四处传达品牌品质的陈列 就算没有购物身处其中也是令人愉悦的事情
今天超级个体专栏讲到了如何管理知识,这个主题多么有诱惑力,以至于我觉得有必要写个学习小结加深印象。 管理:调用资源,有效率有用地达成目标。 知识管理:收集和整理知识,有效率地产出结果,解决问题。 看吧,知识管理的核心不在知识,而是在管理,我们学习知识不是为了学知识,而是为了...
等——竹林里的寺庙,可见“等”便是一种修行!结果是期待的??那么会产生两种感觉:如果是有确信的,过程便是越来越幸福,根据期待的程度,时间会变得无比的短,当然也会变得无法想象的长!如果是没有确信的,过程便是越来越焦虑,根据期待的程度,时间通常表现为无可思议的漫长!结果是排斥的...
《朗读者》第一期【遇见】 1.只要你是个正直的孩子,不管你从事什么行业,你都是我的好孩子。——柳传志父亲对柳传志说的话。 2.人生的不可测,在任何时候,都要抱着一份希望。——董卿 3.从某种意义上来看,世间一切,都是遇见。就像,冷遇见暖,就有了雨;春遇见冬,有了岁月;天遇见...TensorBoard_百度百科
清除历史记录关闭
声明:百科词条人人可编辑,词条创建和修改均免费,绝不存在官方及代理商付费代编,请勿上当受骗。
TensorBoard
本词条缺少名片图,补充相关内容使词条更完整,还能快速升级,赶紧来吧!
TensorBoard 是 TensorFlow 提供的实用工具(utility),可以图形化的显示 computational graph。
TensorBoard 是 提供的一组可视化工具(a suite of visualization tools),可以帮助开发者方便的理解、调试、优化TensorFlow 程序
.tensorflow[引用日期]
清除历史记录关闭}

我要回帖

更多关于 tensorrt 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信