gogear spark无法充电2连电脑只充电

Spark集群处理能力不足需要扩容,如何在现有spark集群中新增新节点?本文以一个实例介绍如何给Spark集群新增一个节点。1. 集群环境现有Spark集群包括3台机器,用户名都是cdahdp,主目录/home/ap/cdahdp,配置是2C8G,集群基于yarn架构。 Master:128.196.54.112/W118PC01VM01 Slave1:128.196.54.113/W118PC02VM01 Slave2:128.196.54.114/W118PC03VM01 相关版本:jdk1.7、scala2.10.4、Hadoop2.6.0、spark1.1 现在需要新增一个节点:128.196.54.115/W118PC04VM01,2C8G 首先停止当前集群:停止spark,停止hdfs和yarn。 2. 新节点要求(1)新节点需要增加用户cdahdp,主目录/home/ap/cdahdp。与集群现有机器一致。(2)修改所有节点的/etc/hosts文件,更新新节点的ip hostname配置。(3)配置ssh,使新节点与集群中各节点能够无密码互相ssh登录。(4)在新节点上安装jdk、scala、hadoop和spark。其版本,安装目录,环境变量设置与集群中现有节点保持一致。比如可以直接从集群节点赋值。3. 修改(1)修改$HADOOP_HOME/etc/hadoop/slaves文件,增加新节点作为slave节点。cd $HADOOP_HOME/bin./hdfs namenode -format4. 启动新集群启动hdfs,yarn,以及spark。cd $HADOOP_HOME/sbin./start-dfs.sh && ./start-yarn.shcd $SPARK_HOME/sbin./start-all.sh扩容以前: 扩容以后: 5. 集群的负载均衡(1)查看HDFS集群的基本信息:执行hadoop dfsadmin -report (2)负载均衡:在$HADOOP_HOME/sbin/下执行start-balancer.sh 说明:balancer操作是一个较慢的过程,所以在后台执行。balance过程中,数据在各节点之间迁移的速度默认是1M/s。 负载均衡之前: 执行负载均衡: 负载均衡之后: 至此,在spark集群增加新节点完毕。--------------------------------------分割线 --------------------------------------Spark1.0.0部署指南 CentOS 6.2(64位)下安装Spark0.8.0详细记录 Spark简介及其在下的安装使用 安装Spark集群(在CentOS上) Hadoop vs Spark性能对比 Spark安装与学习 Spark 并行计算 --------------------------------------分割线 --------------------------------------本文永久更新链接地址:&&&&上篇中讲完了如何配置免密码登录的问题,现在讲述下,三个节点的环境配置过程。所需要的hadoop-2.7.3.tar.gz 、 jdk-7u79--x64.tar.gz 、 scala-2.11.6.tgz 、 spark-2.0.1-bin-hadoop2.7.tgz 可以点击这里获取,资源存放在云盘。首先需要在三个节点中分别创建spark目录master节点、worker1节点、worker2节点同时执行:下面以master节点为例,部分操作worker1与worker2不需要执行,不需要worker1,worker2执行的将给出注释,请仔细看清。spark@master:~/.ssh$&cd&..
spark@master:~$&mkdir&spark650) this.width=650;" src="///upload/images//91.jpg" title="14.jpg" alt="wKiom1gtYr2D42PcAACjJLo0HW8041.jpg-wh_50" />注意所创建的spark目录属于spark用户,hadoop组spark@master:~$&cd&spark/在这里要介绍一个工具winSCP,功能是能够在 与 之间传递文件,之所以不推荐使用lrzsz包中的rz 进行传递是因为rz只能够传递比较小的文件,对于大的文件,使用这个将会传递失败,有趣的是可以使用命令sudo rz 进行传递,但是,当上传之后,你可以看到所上传的文件所属的用户将变成了root,这将会导致后面配置的错误。因此,必须使用winSCP进行传递。winSCP也在刚才的百度云盘中。650) this.width=650;" src="///upload/images//92.jpg" title="15.jpg" alt="wKiom1gtZPjxNVdYAAFs9O9fY-Q871.jpg-wh_50" />上图显示了winSCP工具界面,根据自己的文件目录进行上传,或者可以直接拖依次对上传的包进行解压,注意:在worker1和worker2中只需上传jdk-7u79-linux-x64.tar.gz 、 scala-2.11.6.tgz ,而在master中则要全部上传四个文件spark@master:~/spark$&tar&-zxvf&hadoop-2.7.3&&&#只在master节点执行spark@master:~/spark$&tar&-zxvf&jdk-7u79-linux-x64.tar.gz&&&#三个节点都要执行spark@master:~/spark$&tar&-zxvf&scala-2.11.6.tgz&&&&#三个节点都要执行spark@master:~/spark$&tar&-zxvf&spark-2.0.1-bin-hadoop2.7.tgz&&&&#只在master节点执行解压之后,为方便调用,建立软连接spark@master:~/spark$&ln&-s&hadoop-2.7.3&hadoop&&&&#只在master节点执行
spark@master:~/spark$&ln&-s&jdk1.7.0_79/&jdk&&&&&&&#三个节点都要执行
spark@master:~/spark$&ln&-s&scala-2.11.6&scala&&&&&&#三个节点都要执行
spark@master:~/spark$&ln&-s&spark-2.0.1-bin-hadoop2.7&spark&&&&#只在master节点执行650) this.width=650;" src="///upload/images//93.jpg" title="16.jpg" alt="wKiom1gtZ2LRixrcAAD0ism1S6M200.jpg-wh_50" />切换到root下进行环境配置spark@master:~/spark$&sudo&su
[sudo]&password&for&spark:&
root@master:/home/spark/spark#&vim&/etc/profile在文件最底部添加:export&_HOME=/home/spark/spark/jdk&&&&&&#三个节点都要添加
export&SCALA_HOME=/home/spark/spark/scala&&&&&#三个节点都要添加
export&HADOOP_HOME=/home/spark/spark/hadoop&&&#三个节点都要添加
export&SPARK_HOME=/home/spark/spark/spark&&&&&&#三个节点都要添加
export&CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
export&HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop
export&PATH=$PATH:$JAVA_HOME/bin:$SCALA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$SPARK_HOME/bin保存,使其生效,并退回到spark用户root@master:/home/spark/spark#&source&/etc/profile
root@master:/home/spark/spark#&exit
spark@master:~/spark$至此可以查看下java环境,scala,hadoop 环境是否已经安装成功spark@master:~/spark$&java&-
java&version&"1.7.0_79"
Java(TM)&SE&Runtime&Environment&(build&1.7.0_79-b15)
Java&HotSpot(TM)&64-Bit&Server&VM&(build&24.79-b02,&mixed&mode)java环境已经配置成功spark@master:~/spark$&scala&-version
Scala&code&runner&version&2.11.6&--&Copyright&,&LAMP/EPFLscala已经配置成功至此上述是三个节点同时执行的。接下来,master节点上的配置spark@master:~/spark$&hadoop&version
Hadoop&2.7.3
Subversion&https://git-wip-us.apache.org/repos/asf/hadoop.git&-r&baa91f7c6bc9cb92bec1c8af91ccff
Compiled&by&root&on&T01:41Z
Compiled&with&protoc&2.5.0
From&source&with&checksum&2e4ce5f957ea4db193bce
This&&was&run&using&/home/spark/spark/hadoop-2.7.3/share/hadoop/common/hadoop-common-2.7.3.jarhadoop环境成功接下来开始配置hadoopspark@master:~/spark$&cd&hadoop/etc/hadoop/
spark@master:~/spark/hadoop/etc/hadoop$&&vim&slaves删除里面内容,并添加一下内容:650) this.width=650;" src="///upload/images//94.jpg" title="15.jpg" alt="wKioL1gthPDh0uEAAAASRpwOoic825.jpg-wh_50" />保存即可依照下述命令进行文件的更改spark@master:~/spark/hadoop/etc/hadoop$&vim&hadoop-env.sh添加或更改文件中相关的变量,本人在这个地方踩了不少坑,如果不添加,会在后面报错。650) this.width=650;" src="///upload/images//95.jpg" title="17.jpg" alt="wKioL1gtlLCSWi5LAACwQk-lmK0158.jpg-wh_50" />650) this.width=650;" src="///upload/images//96.png" title="18.png" alt="wKiom1gtlNiin93NAABnw4KkUvs724.png-wh_50" />添加完毕后,记得保存。spark@master:~/spark/hadoop/etc/hadoop$&vim&core-site.xml添加内容到&configuration&内容&/configuration&内容如下:&property&
&&&&&&&&&name&fs.default.name&/name&
&&&&&&&&&value&hdfs://master:9000&/value&
&&&&&&&&&description&The&name&of&the&default&file&.&&A&URI&whose&scheme&and&authority&determine&the&FileSystem&implementation.&&The&uri's&scheme&determines&the&config&property&(fs.SCHEME.impl)&naming&the&FileSystem&implementation&class.&The&uri's&authority&is&used&to&determine&the&host,&port,&etc.&for&a&filesystem.
&&&&&&&&&/description&
&&&&&/property&
&&property&
&&&&&&&&&name&hadoop.tmp.dir&/name&
&&&&&&&&&value&/home/spark/spark/hadoop/tmp&/value&
&&&&&&&&&description&A&base&for&other&temporary&directories.&/description&
&&&&&/property&spark@master:~/spark/hadoop/etc/hadoop$&vim&hdfs-site.xml添加内容到&configuration&内容&/configuration&内容如下:&property&
&&&&&&&&&name&dfs.replication&/name&
&&&&&&&&&value&3&/value&
&&&&&&&&&description&Default&block&replication.The&actual&number&of&replications&can&be&specified&when&the&file&iscreated.The&default&is&used&if&replication&is&not&specified&in&create&time.
&&&&&&&&&/description&
&&&&&/property&spark@master:~/spark/hadoop/etc/hadoop$&vim&yarn-site.xml添加内容到&configuration&内容&/configuration&内容如下:&property&
&&&&&&&&&name&yarn.resourcemanager.hostname&/name&
&&&&&&&&&value&master&/value&
&/property&
&property&
&&&&&&&&&name&yarn.nodemanager.aux-services&/name&
&&&&&&&&&value&mapreduce_shuffle&/value&
&/property&spark@master:~/spark/hadoop/etc/hadoop$&cp&mapred-site.xml.template&mapred-site.xml
spark@master:~/spark/hadoop/etc/hadoop$&vim&mapred-site.xml添加内容到&configuration&内容&/configuration&内容如下:&property&
&&&&name&mapreduce.framework.name&/name&
&&&&&&value&yarn&/value&
&&&&&&&&description&The&runtime&framework&for&executing&MapReduce&jobs.
&&&&&&&&&Can&be&one&of&local,&classic&or&yarn.默认是local,适合单机
&&&&&&&&/description&
&&&/property&spark@master:~/spark/hadoop/etc/hadoop$&vim&yarn-site.xml添加内容到&configuration&内容&/configuration&内容如下:&property&
&&&&&&&&&name&yarn.resourcemanager.hostname&/name&
&&&&&&&&&value&master&/value&
&/property&
&property&
&&&&&&&&&name&yarn.nodemanager.aux-services&/name&
&&&&&&&&&value&mapreduce_shuffle&/value&
&/property&spark@master:~/spark/hadoop/etc/hadoop$&vim&yarn-env.sh添加以下内容在文件中地开始export&JAVA_HOME=/home/spark/spark/jdk
export&YARN_PID_DIR=/home/spark/spark/hadoop/tmp/pid650) this.width=650;" src="///upload/images//97.jpg" title="19.jpg" alt="wKioL1gtmpGTe4SYAACDahAjkV0820.jpg-wh_50" />保存文件切换到worker1节点中执行spark@worker1:~/spark$&scp&-r&spark@master:/home/spark/spark/hadoop&./hadoop注意:./hadoop,代表将master中spark用户下的/home/spark/spark/hadoop复制为hadoop,此名称要跟之前在/etc/profile中设置的hadoop环境变量名称一致。在worker1中做下测试。spark@worker1:~/spark$&hadoop&version
Hadoop&2.7.3
Subversion&https://git-wip-us.apache.org/repos/asf/hadoop.git&-r&baa91f7c6bc9cb92bec1c8af91ccff
Compiled&by&root&on&T01:41Z
Compiled&with&protoc&2.5.0
From&source&with&checksum&2e4ce5f957ea4db193bce
This&command&was&run&using&/home/spark/spark/hadoop/share/hadoop/common/hadoop-common-2.7.3.jar显示成功切换到worker2节点中spark@worker2:~/spark$&scp&-r&spark@master:/home/spark/spark/hadoop&./hadoop在worker2下做下测试。spark@worker2:~/spark$&hadoop&version
Hadoop&2.7.3
Subversion&https://git-wip-us.apache.org/repos/asf/hadoop.git&-r&baa91f7c6bc9cb92bec1c8af91ccff
Compiled&by&root&on&T01:41Z
Compiled&with&protoc&2.5.0
From&source&with&checksum&2e4ce5f957ea4db193bce
This&command&was&run&using&/home/spark/spark/hadoop/share/hadoop/common/hadoop-common-2.7.3.jar显示成功初始化hadoop集群spark@master:~/spark/hadoop/etc/hadoop$&hadoop&namenode&-format650) this.width=650;" src="///upload/images//98.jpg" title="20.jpg" alt="wKiom1gtm96D6I51AAFy2tQcSwo705.jpg-wh_50" />若红色方框中的status为0则代表初始化成功,若为1,则为失败启动集群spark@master:~/spark/hadoop/etc/hadoop$&$HADOOP_HOME/sbin/start-all.sh然后在中输入&http://master_ip:50070/& &master_ip代表master的端口号为50070650) this.width=650;" src="///upload/images//99.jpg" title="21.jpg" alt="wKiom1gtnRjwTGtVAAEO1maXxS4972.jpg-wh_50" /> &本文出自 “lefteva” ,请务必保留此出处http://lefteva./4033飞利浦spark2 打不开了。 不能开机 不能充电, 连接电脑也没有反应。求帮助
已有1个回答
[见习专家]
专家星级&:&0.5星
问答堂专家综合评分
问题评分&:&0星
采纳、点赞&:&0星
二次回复率&:&5星
内容为广告/垃圾,我要举报!
特聘专家具有协助内容审核的特权
举报后内容将不能在前台展示
错乱举报会导致该权利被剥夺
选择举报原因×
你好,我也是用spark2的,我以前也是这种情况,你看那下面是不是有个reset键,非常小的一个点点,点一下就复位了,就可以用了,建议要经常固件更新,不然有可能会连不起电脑,可追问,请采纳。
留下你的评论
微信公众账号ZOL问答堂
关注微信,随时随地解答您的疑惑
ZOL问答堂官方微博@ZOL问答堂
关注成功!该问题被回答后,将给您发送站内短信。
您也可以通过关注问答堂微信,及时获得您关注问题的回答。
微信关注问题方法“”2013年年底,我第一次接触到Spark,当时我对Spark所使用的Scala语言产生了较大的兴趣。一段时间后,我做了一个预测泰坦尼克号船上人员生存概率的数据科学。事实证明这是一个更深入了解Spark概念和框架的绝佳途径。
我强烈建议任何希望学习Spark的都寻找一个项目入手。
如今,诸如、eBay和雅虎等公司都开始采用Spark。许多机构将Spark部署在上千个节点的集群中。据Spark FAQ中记录,已知的最大集群节点个数已超过8000。
事实上,Spark是一项非常值得学习的技术。
本文主要介绍了Spark概念及一些实例。这些信息主要从Apache Spark和相关书籍中获取。
什么是Apache Spark?
正如所提到的,Spark是一个运算速度快如闪电的Apache项目。它有一个逐渐壮大的开源社区,同时它还是现今最热门的Apache项目。
Spark提供了一个运算速度快的一般化数据处理平台。Spark可以让你的提高100倍的内存计算速度,或者10倍的磁盘计算速度(Hadoop)。去年的Daytona GraySort比赛中,Spark只用了Hadoop十分之一数量的机器就实现了其三倍多的速度。Spark已经成了处理PB级别数据运算速度最快的开源工具。
Spark还可以更加便捷地完成你的项目,为了更好地说明这个问题,我们首先看下如何实现大数据中的“Hello World!”案例。用语言编写的MapReduce过程需要大约50行的代码,而利用Spark你只需要以下几行代码:
sparkContext.textFile(&hdfs://...&)&
&&&&.flatMap(line&=&&line.split(&&&))&
&&&&map(word&=&&(word,&1)).reduceByKey(_+_)&
&&&&.saveAsTextFile(&hdfs://...&)&
学习如何使用Apache Spark时,另一个重要的东西是其提供了脱机的交互式shell(REPL)。利用REPL,我们可以逐行检测代码是否有误。考虑到Spark较为简短的代码风格,这使得即时数据分析任务成了容易实现的事情。
此外,Spark还提供了其他的一些特性:
当前Spark提供了Scala、Java、和R的API
较好地整合了Hadoop生态系统和数据储存系统(HDFS, Amazon S3, HIVE, HBase, Cassandra等)
既可以在Hadoop YARN或者Apache Mesos等集群上运行,也可以单机运行。
Spark核心组件可以和其他一些高效的库无缝连接使用。这些软件库包括SparkSQL, Spark Streming, MLlib(机器学习专用)和GraphX,下文将详细介绍这些组件。其他一些软件库和扩展功能目前正处于开发过程中。
Spark核心组件
Spark是处理大规模数据的并行分布式基础引擎。它主要负责以下几个功能:
内存管理和故障恢复
制定并管理集群中的任务
和数据储存系统交互
Spark引入了RDD(Resilient Distributed Dataset)的概念,RDD是一个抽象的数据集,它提供对数据并行和容错的处理。我们可以通过加载外部数据集或从驱动程序集中切分得到一个可以包含任意类型项目的RDD。
RDD支持两种类型的运算:
数据转换(数据映射、过滤、合并等)在一个RDD上执行,而其结果被储存到另外一个RDD中。
数据运算(降维、计数等)则是通过在RDD中计算后才返回相应的结果。
Spark的数据转换过程并不是实时返回运算结果。实际上,该过程记录下需要执行的操作过程和相应的数据集。只有当执行数据运算过程且结果已经返回到驱动程序中时,Spark才执行数据转换进程。该设计使得Spark可以更高效地执行任务。例如,如果一个大型数据集被转换成许多子集并被传输到第一步的数据运算过程中,那么此时Spark只能处理并返回第一步的运算结果,并无法处理整个数据集的运算过程。
默认设定下,任何一个处理数据转换过程的RDD将会在每次处理完数据运算后被还原。然而,你也可以使用高速缓存的方法将RDD保存下来,此时Spark会将内容储存在集群中以便于下次更快捷地调用。
SparkSQL是Spark的一个组件,它可以利用SQL或者Hive查询语法来查询数据。它起先被视为MapReduce的替代方案,现今SparkSQL已被整合到Spark堆栈中。为了提供对更多数据类型的支持,它将SQL语句纳入系统中,这使其成为一个非常强大的工具。以下是Hive兼容查询语句的实例:
//&sc&is&an&existing&SparkContext&
val&sqlContext&=&new&org.apache.spark.sql.hive.HiveCONTEXT(sc)&
sqlContext.sql(&CREATE&TABLE&IF&NOT&EXISTS&src&(key&INT,&value&STRING)&)&
sqlContext.sql(&LOAD&DATA&LOCAL&INPATH&'examoles/src/main/resources/kvl.txt'&INTO&TABLE&src&)&
//&Queries&are&expressed&in&HiveQL&
sqlContext.sql(&FROM&src&SELECT&key,&value&).collect().foreach(println)&
Spark Streaming
Spark Streaming支持实时流式数据处理,比如Web日志文件、等社交数据和类似Kafka的信息数据。Spark中,Spark Streaming接收输入流数据并将其划分成小子集。接下来,如下图所示,这些数据被Spark引擎所处理并被整合成最终的结果。
Spark Streaming的API接口和Spark核心组件非常匹配,因此所有的编程人员可以轻易地处理流式数据。
MLlibMLlib是一个机器学习库,它提供了为大规模集群计算所设计的分类、回归、聚类和协同过滤等机器学习算法。其中一部分算法也适用于处理流式数据,比如普通线性二乘回归估计和k均值聚类算法。值得注意的是,Apache Mahout(Hadoop的机器学习算法软件库)已经脱离MapReduce阵营转而投向Spark MLlib中。
GraphX是用于绘图和执行绘图并行计算的软件库,它为ETL(探索性分析和反复的绘图计算)提供了一套统一的工具。除了绘图操作,它还提供了类似于PageRank的一般性绘图算法。
如何使用Apache Spark?
TwitterUtils.createStream(...)&
&&&&.filter(_.getText.contains(&earthquake&)&||&_.getText.contains(&shaking&))&
现在我们已经回答了“什么是Apache Spark?”这个问题,接下来让我们思考下Spark可以用来处理啥样的问题呢?
最近,我偶然看到一篇。文章中提到利用Twitter流式数据来检测地震。有趣的是,实验表明该技术可以比气象局更快地告知百姓地震的情况。即使他们在文章使用了不同的方法,但我认为这是一个很好的例子,它可以用来检验我们如何利用简化的片段代码而不使用粘接代码将Spark付诸实践。
首先,我们必须将与“地震”或者“抖动”有关的推文过滤出来。我们可以非常轻易地利用Spark Streaming来实现该目标:
TwitterUtils.createStream(...)&
&&&&.filter(_.getText.contains(&earthquake&)&||&_.getText.contains(&shaking&))&
接下来我们可以对处理完的推文数据做一些语义分析,并判断是否能反映出当前的地震情况。比如,类似于“地震”或者“现在正在晃动!”的推文将被视为具有正效应,而类似于“参加地震会议。”或者“昨天的地震真恐怖。”则被视为无影响效应。文章作者利用支持向量机来实现该目标,我们将在 此基础上利用流式数据版本的模型来实现。下文是利用MLlib生成的代码示例:
//&We&would&prepare&some&earthquake&tweet&data&and&load&it&in&LIBSVM&format.&
val&data&=&MLUtils.loadLibSVMFile(sc,&&sample_earthquate_tweets.txt&)&
//&Split&data&into&training&(60%)&and&test&(40%).&
val&splits&=&data.randomSplit(Array(0.6,0.4),seed&=&11L)&
val&training&=&split(0).cache()&
val&test&=&splits(1)&
//&Run&training&algorithm&to&build&the&model&
val&numIterations&=&100&
val&model&=&SVMWithSGD.train(training,&numIterations)&
//&Clear&the&default&threshold.&
model.clearThreshold()&
//&Compute&raw&scores&on&the&test&set.&
val&scoreAndLabels&=&test.map{point&=&&&
&&&&val&score&=&model.predict(point.features)&
&&&&(score,&point.label)}&
//&Get&evaluation&metrics.&
val&metric&=&new&BinaryClassificationMetrics(scoreAndLabels)&
val&auROC&=&metrics.areaUnderROC()&
println(&Area&under&ROC&=&&+&auROC)&
如果我们关注模型的预测准确率,那么我们可以进一步对检测到地震做出反应。需要注意的是,对于包含地理信息的推文,我们还可以获取震源位置。利用这个信息,我们可以通过SparkSQL从现有的Hive table(储存需要接收地震提醒的用户信息)中提取出他们的邮箱地址并发送一封私人电子邮件:
//sc&is&an&existing&SparkContext.&
val&sqlContext&=&new&org.apache.spark.sql.hive.HiveContext(sc)&
//&sendEmail&is&a&custom&function&
sqlContext.sql(&FROM&earthquake_warning_users&SELECT&firstName,&lastName,&city,&email&)&
&&&&.collect().foreach(sendEmail)&
Apache Spark的其他应用
除检测地震情况外,Spark还有许多潜在的应用。
以下是Spark在大数据中的部分应用:
1.在领域中,从实时的潜在游戏事件中迅速地挖掘出有价值的模式可以创造出巨大的商业利益,比如用户返回率情况、如何制定定向广告以及如何自动调整游戏的复杂度等。
2.在领域中,实时交易数据将被传递到k均值算法或者ALS等协同过滤流算法中。这些运算结果将和顾客评论等非结构化数据结合起来,用于不断改进交易模式以适应新趋势的发展。
3.在金融或证券领域中,Spark堆栈技术可以被应用到信用诈骗和风险管控系统中。通过获取大量的数据和其他一些外泄数据以及一些连接/请求信息(IP地理信息或时间信息),我们可以取得非常好的模型结果。
总而言之,Spark帮助人们简化了处理大规模数据的步骤流程。不管是处理结构化还是非结构化数据,Spark将许多复杂的功能(比如机器学习算法和图算法)无缝地结合起来。Spark使得大量的从业者都可以进行大数据分析,让我们一探究竟吧!
原文作者:RADEK OSTROWSKI
译者:Fibearsspark2吧_百度贴吧
感谢你与spa...的一同成长
签到排名:今日本吧第个签到,
本吧因你更精彩,明天继续来努力!
本吧排名:
本吧签到人数:0
可签7级以上的吧50个
本月漏签0次!
成为超级会员,赠送8张补签卡
连续签到:天&&累计签到:天
超级会员单次开通12个月以上,赠送连续签到卡3张
spark2自带songbird软件再次开贴 需要的可以再次进行下载 如题 需要的随时@我
有没有什么办法恢复?
spark,美国上市公司「大数据开发培训」,4个月精通大数据,速成NB攻城狮!spark,爱编程..
如题 买了好几年了现在坏了 songbird安装在家里电脑了 手边的笔记本里没有 求好心人发一个
目前是1.0的固件,可以显示歌词,无法显示专辑图片
手贱把屏幕拆坏了,收个尸体换屏幕。 要求屏幕划痕不要太明显 = = 有意者带照片带价格回复           ——朝露初升,落叶飘零,让我们把美
spark2, 设置为简体中文, lrc 文件名和歌名一致, 为什么还是会乱码, 但英文歌不会~~求大神~
开不了机 充电的时候会显示飞利浦的页面 然后就这样
自从入了索尼,又整了个降噪耳机。这个MP3放家里就很鸡肋了。闲置了好久。打算当二手卖了。用了差不多半年吧。当时记得是300+入的。我平时上班挺忙,
看贴吧突然想起来还有一个spark2.不知道放哪去了怎么办。找不到。了。
首先希望不要秒沉。 给度娘。
有背夹,数据线弄丢了,现在基本用手机听歌,用不着了,好的,换过一次的产品,换过以后没出过问题。有要的qq联系
为何官网搜不到?在那里网购好?
开机停留在philips界面 songbird修复显示“设备固件已经是最新版本”
上海兄弟连大数据学员可0元入学,先就业后付款,项目经理24小时全程辅导,变态严管,拒..
打开歌曲界面就卡住了,能开机能用收音机能看图片,就是听歌就卡死。。
我用的akg k420,吧里有人用吗?
坏了有几个月了,本人太懒,才想起来鼓捣,刚坏时候开不开机,连电脑现实充电界面,当时不咋听歌也没管,现在连电脑现实飞利浦的logo下面一行小字写的
想在第一时间就免费拿到最新款的魅族MX4手机?快来抽奖抢魅4吧!立刻转发本贴后再猛击“立刻抽奖”,你就有机会成为最幸运的煤油哦!
时间: 10:00 至
MX4真机、魅族定制限量版新秀丽背包、魅族EP21耳机、魅族Flyme T恤、...
我的S2问题是这样的: 在听音乐时,一按返回键就会到“歌曲模式+循环模式”的页面,即使长按也不会回到主页面,这个是问题么?还是我不会操作啊=。=
前段时间黑东入手了一个spark2,具体型号是 飞利浦 (PHILPS) SA2SPK04K/93 4G 。 里面的音乐都是APE或者FLAC的无损歌曲,保证歌曲是没问题的,在手机
RT,请高手支招
哪位吧友用的飞利浦SPARK2 4G的mp3,并且安装过Philips Songbird,能不能把C:/Program Files/Philips/Philips Songbird Resources/Firmware/SA2SPK,
我在酷我下的音乐怎么感觉音质很差
买来快一个月了,每次大约连续听半小时到一小时,前几天晚上听忘记看时间结果听了三个多小时,突然就出现很大电流声而且声音变得模糊,但是按一下键子
1.每次开机都要更新,声音就会变得特别大,每次开机都得调,这个有法弄么? 2.还有先前设置的日期时间也重置了。 3.一般充电要多长时间啊? 4.续航时
介于这个吧过于冷清,实在看不下去,我会在近期连续发起spark的维护 保养 各方面音效的帖子供大家参考。大家的小s出了什么问题可以发帖提问,我会一一
我开好了房间,等你! 女:别开玩笑了。 男:真的,都说你技术好,我想试试真假。 女:再这样我就生气了。 男:真的,我不骗你。 他们都发誓了,说你技术
屏都摔出来了,不过下课被我捡回来,又把屏装回去还能用
rt @*#我颠倒了整个世界,只为摆正你的身影。
这吧人好少,有spark2的人飘过~
哪里可以买到长点的数据线啊?
收个尸体当配件。我的坏了。看情况出价。,想出的联系我。qq
接触不良了,真坑,不知道现在蓝牙耳机音质怎么样,要相同价位音质差不多的话,以后就不买带线得了
用了一星期左右,自从昨晚死机后,我就等他到早上没电,结果早上一开机就死机,后来按了那什么res键,开机依旧开不了,充电几秒后又死机,连电脑也连
好冷清的吧……
rt @*#我颠倒了整个世界,只为摆正你的身影。
发贴红色标题
签到六倍经验
兑换本吧会员
赠送补签卡1张,获得
助攻总额: 43W
贴吧热议榜
发表后自动分享本贴
使用签名档&}

我要回帖

更多关于 小米手环2电脑充电 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信