精华内容
下载资源
问答
  • 初识树莓派(转)

    2015-03-29 12:44:00
    大数据时代,随着智能手机、手环等产品的出现,也逐渐对智能硬件产生了兴趣。今天开始研究树莓派,哈哈。 树莓派是什么 树莓派是全球最小最便宜的个人计算机Raspberry Pi的中文译名,只有信用卡大小,是由英国的...

     

    初识树莓派

     

    大数据时代,随着智能手机、手环等产品的出现,也逐渐对智能硬件产生了兴趣。今天开始研究树莓派,哈哈。

    树莓派是什么

    树莓派是全球最小最便宜的个人计算机Raspberry Pi的中文译名,只有信用卡大小,是由英国的Raspberry Pi基金会开发的。最初的设计目的是以超低的硬件价格及开放的自由软件来为发展中国家的学生提供一个基本的计算机编程环境。但是随着树莓派计算机的推出,它已经成为了众多计算机爱好者的新工具,通过树莓派这种超低成本的迷你计算机,可以完成许多以前无法完成的事情,例如将树莓派和摄像头一起放在探空气球中,记录天气情况或者是用它来完成智能家电的控制等。

    截止到目前,树莓派已发布了第二代产品,在树莓派一代的基础上大幅度的提升了硬件性能,树莓派2基于4核Cortex-A7的Broadcom BCM2836 (ARMv7-A)芯片、双核VideoCore IV GPU和1GB内存,除了可以运行第一代树莓派支持的操作系统外,还将支持Windows 10以及Snappy Ubuntu Core系统。

    树莓派主要版本配置表如下:

     

    购买树莓派

    大家可以通过e络盟、爱板网、RS中国以及万能的淘宝网进行购买,由于e络盟、RS中国发货太慢,我最终选择了在淘宝网购买,花了264大洋买了RS版本树莓派+黑色外壳。

    其他需单独购买的配件清单如下:

    1、Micro SD卡(TF卡),用于安装系统,如果是学习的话购买8G或16G,更大存储空间可考虑外接硬盘。

    2、电源,输入功率为5V 1000mA的电源,如果有闲置的手机充电器及microUSB线可检查是否可用,可用的话就不需要单独购买了

    烧录树莓派操作系统

    在树莓派的官方网站http://www.raspberrypi.org/downloads/下载操作系统,官网提供了RASPBIAN、SNAPPY UBUNTU CORE、OPENELEC、RASPBMC、PIDORA、RISC OS等系统的下载链接。

    RASPBIAN使用的人较多,不过我比较喜欢UBUNTU,因此选择是SNAPPY UBUNTU CORE,系统默认登录帐号/密码是ubuntu/ubuntu。

    下载系统镜像之后,将Micro SD卡插入电脑,借助Win32 Disk Imager或类似的工具将镜像文件写入到Micro SD卡之中。

    组装树莓派

    树莓派组装还是比较简单的,直接将树莓派放到外壳中,拧紧4颗螺丝即可。

    然后将Micro SD卡插入卡槽,接上网线,并且插上电源即可。

    树莓派没有电源开关,插上电源即可开机启动。

    通过SSH客户端连接树莓派

    因为没有买额外的显示器,及USB键盘和鼠标,因此决定采用SSH客户端SecureCRTPortable远程连接树莓派。

    这里涉及到树莓派系统IP地址的问题,其实也很简单,路由器是DHCP动态分配IP的,通过路由器后台管理即可查找到树莓派的IP192.168.31.172。

    SNAPPY UBUNTU CORE默认已经安装了ssh,因此我们只需要在另外一台电脑上启动SecureCRTPortable,然后远程访问192.168.31.172,并输入默认的帐号\密码(ubuntu\ubuntu)即可连接到终端。

    至此算是初步进入了树莓派的世界了!

    http://www.cnblogs.com/scaleworld/p/4370025.html

     

     

    展开全文
  • 有些时候我们想从 ...今天我将向你展示对大数据的一点探索,不过有点变化,使用的是全世界最流行的微型电脑————树莓派,如果手头没有,那就看下一篇吧(可能是已经处理好的数据),对于其他用户,请继续阅读...

    有些时候我们想从 DQYDJ 网站的数据中分析点有用的东西出来,在过去,我们要用 R 语言提取固定宽度的数据,然后通过数学建模来分析美国的最低收入补贴,当然也包括其他优秀的方法。

    今天我将向你展示对大数据的一点探索,不过有点变化,使用的是全世界最流行的微型电脑————树莓派,如果手头没有,那就看下一篇吧(可能是已经处理好的数据),对于其他用户,请继续阅读吧,今天我们要建立一个树莓派 Hadoop集群!

    I. 为什么要建立一个树莓派的 Hadoop 集群?

    由三个树莓派节点组成的 Hadoop 集群

    由三个树莓派节点组成的 Hadoop 集群

    我们对 DQYDJ 的数据做了大量的处理工作,但这些还不能称得上是大数据。

    和许许多多有争议的话题一样,数据的大小之别被解释成这样一个笑话:

    如果能被内存所存储,那么它就不是大数据。 ————佚名

    似乎这儿有两种解决问题的方法:

    1. 我们可以找到一个足够大的数据集合,任何家用电脑的物理或虚拟内存都存不下。
    2. 我们可以买一些不用特别定制,我们现有数据就能淹没它的电脑:
      —— 上手树莓派 2B

    这个由设计师和工程师制作出来的精致小玩意儿拥有 1GB 的内存, MicroSD 卡充当它的硬盘,此外,每一台的价格都低于 50 美元,这意味着你可以花不到 250 美元的价格搭建一个 Hadoop 集群。

    或许天下没有比这更便宜的入场券来带你进入大数据的大门。

    II. 制作一个树莓派集群

    我最喜欢制作的原材料。

    这里我将给出我原来为了制作树莓派集群购买原材料的链接,如果以后要在亚马逊购买的话你可先这些链接收藏起来,也是对本站的一点支持。(谢谢)

    开始制作

    1. 首先,装好三个树莓派,每一个用螺丝钉固定在亚克力面板上。(看下图)
    2. 接下来,安装以太网交换机,用双面胶贴在其中一个在亚克力面板上。
    3. 用双面胶贴将 USB 转接器贴在一个在亚克力面板使之成为最顶层。
    4. 接着就是一层一层都拼好——这里我选择将树莓派放在交换机和USB转接器的底下(可以看看完整安装好的两张截图)

    想办法把线路放在需要的地方——如果你和我一样购买力 USB 线和网线,我可以将它们卷起来放在亚克力板子的每一层

    现在不要急着上电,需要将系统烧录到 SD 卡上才能继续。

    烧录 Raspbian

    按照这个教程将 Raspbian 烧录到三张 SD 卡上,我使用的是 Win7 下的 Win32DiskImager

    将其中一张烧录好的 SD 卡插在你想作为主节点的树莓派上,连接 USB 线并启动它。

    启动主节点

    这里有一篇非常棒的“Because We Can Geek”的教程,讲如何安装 Hadoop 2.7.1,此处就不再熬述。

    在启动过程中有一些要注意的地方,我将带着你一起设置直到最后一步,记住我现在使用的 IP 段为 192.168.1.50 – 192.168.1.52,主节点是 .50,从节点是 .51 和 .52,你的网络可能会有所不同,如果你想设置静态 IP 的话可以在评论区看看或讨论。

    一旦你完成了这些步骤,接下来要做的就是启用交换文件,Spark on YARN 将分割出一块非常接近内存大小的交换文件,当你内存快用完时便会使用这个交换分区。

    (如果你以前没有做过有关交换分区的操作的话,可以看看这篇教程,让 swappiness 保持较低水准,因为 MicroSD 卡的性能扛不住)

    现在我准备介绍有关我的和“Because We Can Geek”关于启动设置一些微妙的区别。

    对于初学者,确保你给你的树莓派起了一个正式的名字——在 /etc/hostname 设置,我的主节点设置为 ‘RaspberryPiHadoopMaster’ ,从节点设置为 ‘RaspberryPiHadoopSlave#’

    主节点的 /etc/hosts 配置如下:

    
    
    1. #/etc/hosts
    2. 127.0.0.1 localhost
    3. ::1 localhost ip6-localhost ip6-loopback
    4. ff02::1 ip6-allnodes
    5. ff02::2 ip6-allrouters
    6. 192.168.1.50 RaspberryPiHadoopMaster
    7. 192.168.1.51 RaspberryPiHadoopSlave1
    8. 192.168.1.52 RaspberryPiHadoopSlave2

    如果你想让 Hadoop、YARN 和 Spark 运行正常的话,你也需要修改这些配置文件(不妨现在就编辑)。

    这是 hdfs-site.xml

    
    
    1. <?xml version="1.0" encoding="UTF-8"?>
    2. <?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
    3. <configuration>
    4. <property>
    5. <name>fs.default.name</name>
    6. <value>hdfs://RaspberryPiHadoopMaster:54310</value>
    7. </property>
    8. <property>
    9. <name>hadoop.tmp.dir</name>
    10. <value>/hdfs/tmp</value>
    11. </property>
    12. </configuration>

    这是 yarn-site.xml (注意内存方面的改变):

    
    
    1. <?xml version="1.0"?>
    2. <configuration>
    3. <!-- Site specific YARN configuration properties -->
    4. <property>
    5. <name>yarn.nodemanager.aux-services</name>
    6. <value>mapreduce_shuffle</value>
    7. </property>
    8. <property>
    9. <name>yarn.nodemanager.resource.cpu-vcores</name>
    10. <value>4</value>
    11. </property>
    12. <property>
    13. <name>yarn.nodemanager.resource.memory-mb</name>
    14. <value>1024</value>
    15. </property>
    16. <property>
    17. <name>yarn.scheduler.minimum-allocation-mb</name>
    18. <value>128</value>
    19. </property>
    20. <property>
    21. <name>yarn.scheduler.maximum-allocation-mb</name>
    22. <value>1024</value>
    23. </property>
    24. <property>
    25. <name>yarn.scheduler.minimum-allocation-vcores</name>
    26. <value>1</value>
    27. </property>
    28. <property>
    29. <name>yarn.scheduler.maximum-allocation-vcores</name>
    30. <value>4</value>
    31. </property>
    32. <property>
    33. <name>yarn.nodemanager.vmem-check-enabled</name>
    34. <value>false</value>
    35. <description>Whether virtual memory limits will be enforced for containers</description>
    36. </property>
    37. <property>
    38. <name>yarn.nodemanager.vmem-pmem-ratio</name>
    39. <value>4</value>
    40. <description>Ratio between virtual memory to physical memory when setting memory limits for containers</description>
    41. </property>
    42. <property>
    43. <name>yarn.resourcemanager.resource-tracker.address</name>
    44. <value>RaspberryPiHadoopMaster:8025</value>
    45. </property>
    46. <property>
    47. <name>yarn.resourcemanager.scheduler.address</name>
    48. <value>RaspberryPiHadoopMaster:8030</value>
    49. </property>
    50. <property>
    51. <name>yarn.resourcemanager.address</name>
    52. <value>RaspberryPiHadoopMaster:8040</value>
    53. </property>
    54. </configuration>

    slaves

    
    
    1. RaspberryPiHadoopMaster
    2. RaspberryPiHadoopSlave1
    3. RaspberryPiHadoopSlave2

    core-site.xml

    
    
    1. <?xml version="1.0" encoding="UTF-8"?>
    2. <?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
    3. <configuration>
    4. <property>
    5. <name>fs.default.name</name>
    6. <value>hdfs://RaspberryPiHadoopMaster:54310</value>
    7. </property>
    8. <property>
    9. <name>hadoop.tmp.dir</name>
    10. <value>/hdfs/tmp</value>
    11. </property>
    12. </configuration>

    设置两个从节点:

    接下来按照 “Because We Can Geek”上的教程,你需要对上面的文件作出小小的改动。 在 yarn-site.xml 中主节点没有改变,所以从节点中不必含有这个 slaves 文件。

    III. 在我们的树莓派集群中测试 YARN

    如果所有设备都正常工作,在主节点上你应该执行如下命令:

    
    
    1. start-dfs.sh
    2. start-yarn.sh

    当设备启动后,以 Hadoop 用户执行,如果你遵循教程,用户应该是 hduser

    接下来执行 hdfs dfsadmin -report 查看三个节点是否都正确启动,确认你看到一行粗体文字 ‘Live datanodes (3)’:

    
    
    1. Configured Capacity: 93855559680 (87.41 GB)
    2. Raspberry Pi Hadoop Cluster picture Straight On
    3. Present Capacity: 65321992192 (60.84 GB)
    4. DFS Remaining: 62206627840 (57.93 GB)
    5. DFS Used: 3115364352 (2.90 GB)
    6. DFS Used%: 4.77%
    7. Under replicated blocks: 0
    8. Blocks with corrupt replicas: 0
    9. Missing blocks: 0
    10. Missing blocks (with replication factor 1): 0
    11. ————————————————-
    12. Live datanodes (3):
    13. Name: 192.168.1.51:50010 (RaspberryPiHadoopSlave1)
    14. Hostname: RaspberryPiHadoopSlave1
    15. Decommission Status : Normal

    你现在可以做一些简单的诸如 ‘Hello, World!’ 的测试,或者直接进行下一步。

    IV. 安装 SPARK ON YARN

    YARN 的意思是另一种非常好用的资源调度器(Yet Another Resource Negotiator),已经作为一个易用的资源管理器集成在 Hadoop 基础安装包中。

    Apache Spark 是 Hadoop 生态圈中的另一款软件包,它是一个毁誉参半的执行引擎和捆绑的 MapReduce。在一般情况下,相对于基于磁盘存储的 MapReduce,Spark 更适合基于内存的存储,某些运行任务能够得到 10-100 倍提升——安装完成集群后你可以试试 Spark 和 MapReduce 有什么不同。

    我个人对 Spark 还是留下非常深刻的印象,因为它提供了两种数据工程师和科学家都比较擅长的语言—— Python 和 R。

    安装 Apache Spark 非常简单,在你家目录下,wget "为 Hadoop 2.7 构建的 Apache Spark”来自这个页面),然后运行 tar -xzf “tgz 文件”,最后把解压出来的文件移动至 /opt,并清除刚才下载的文件,以上这些就是安装步骤。

    我又创建了只有两行的文件 spark-env.sh,其中包含 Spark 的配置文件目录。

    
    
    1. SPARK_MASTER_IP=192.168.1.50
    2. SPARK_WORKER_MEMORY=512m

    (在 YARN 跑起来之前我不确定这些是否有必要。)

    V. 你好,世界! 为 Apache Spark 寻找有趣的数据集!

    在 Hadoop 世界里面的 ‘Hello, World!’ 就是做单词计数。

    我决定让我们的作品做一些内省式……为什么不统计本站最常用的单词呢?也许统计一些关于本站的大数据会更有用。

    如果你有一个正在运行的 WordPress 博客,可以通过简单的两步来导出和净化。

    1. 我使用 Export to Text 插件导出文章的内容到纯文本文件中
    2. 我使用一些压缩库编写了一个 Python 脚本来剔除 HTML
    
    
    1. import bleach
    2. # Change this next line to your 'import' filename, whatever you would like to strip
    3. # HTML tags from.
    4. ascii_string = open('dqydj_with_tags.txt', 'r').read()
    5. new_string = bleach.clean(ascii_string, tags=[], attributes={}, styles=[], strip=True)
    6. new_string = new_string.encode('utf-8').strip()
    7. # Change this next line to your 'export' filename
    8. f = open('dqydj_stripped.txt', 'w')
    9. f.write(new_string)
    10. f.close()

    现在我们有了一个更小的、适合复制到树莓派所搭建的 HDFS 集群上的文件。

    如果你不能树莓派主节点上完成上面的操作,找个办法将它传输上去(scp、 rsync 等等),然后用下列命令行复制到 HDFS 上。

    
    
    1. hdfs dfs -copyFromLocal dqydj_stripped.txt /dqydj_stripped.txt

    现在准备进行最后一步 - 向 Apache Spark 写入一些代码。

    VI. 点亮 Apache Spark

    Cloudera 有个极棒的程序可以作为我们的超级单词计数程序的基础,你可以在这里找到。我们接下来为我们的内省式单词计数程序修改它。

    在主节点上安装‘stop-words’这个 python 第三方包,虽然有趣(我在 DQYDJ 上使用了 23,295 次 the 这个单词),你可能不想看到这些语法单词占据着单词计数的前列,另外,在下列代码用你自己的数据集替换所有有关指向 dqydj 文件的地方。

    
    
    1. import sys
    2. from stop_words import get_stop_words
    3. from pyspark import SparkContext, SparkConf
    4. if __name__ == "__main__":
    5. # create Spark context with Spark configuration
    6. conf = SparkConf().setAppName("Spark Count")
    7. sc = SparkContext(conf=conf)
    8. # get threshold
    9. try:
    10. threshold = int(sys.argv[2])
    11. except:
    12. threshold = 5
    13. # read in text file and split each document into words
    14. tokenized = sc.textFile(sys.argv[1]).flatMap(lambda line: line.split(" "))
    15. # count the occurrence of each word
    16. wordCounts = tokenized.map(lambda word: (word.lower().strip(), 1)).reduceByKey(lambda v1,v2:v1 +v2)
    17. # filter out words with fewer than threshold occurrences
    18. filtered = wordCounts.filter(lambda pair:pair[1] >= threshold)
    19. print "*" * 80
    20. print "Printing top words used"
    21. print "-" * 80
    22. filtered_sorted = sorted(filtered.collect(), key=lambda x: x[1], reverse = True)
    23. for (word, count) in filtered_sorted: print "%s : %d" % (word.encode('utf-8').strip(), count)
    24. # Remove stop words
    25. print "\n\n"
    26. print "*" * 80
    27. print "Printing top non-stop words used"
    28. print "-" * 80
    29. # Change this to your language code (see the stop-words documentation)
    30. stop_words = set(get_stop_words('en'))
    31. no_stop_words = filter(lambda x: x[0] not in stop_words, filtered_sorted)
    32. for (word, count) in no_stop_words: print "%s : %d" % (word.encode('utf-8').strip(), count)

    保存好 wordCount.py,确保上面的路径都是正确无误的。

    现在,准备念出咒语,让运行在 YARN 上的 Spark 跑起来,你可以看到我在 DQYDJ 使用最多的单词是哪一个。

    
    
    1. /opt/spark-2.0.0-bin-hadoop2.7/bin/spark-submit master yarn executor-memory 512m name wordcount executor-cores 8 wordCount.py /dqydj_stripped.txt

    VII. 我在 DQYDJ 使用最多的单词

    可能入列的单词有哪一些呢?“can, will, it’s, one, even, like, people, money, don’t, also“.

    嘿,不错,“money”悄悄挤进了前十。在一个致力于金融、投资和经济的网站上谈论这似乎是件好事,对吧?

    下面是的前 50 个最常用的词汇,请用它们刻画出有关我的文章的水平的结论。

    我希望你能喜欢这篇关于 Hadoop、YARN 和 Apache Spark 的教程,现在你可以在 Spark 运行和编写其他的应用了。

    你的下一步是任务是开始阅读 pyspark 文档(以及用于其他语言的该库),去学习一些可用的功能。根据你的兴趣和你实际存储的数据,你将会深入学习到更多——有流数据、SQL,甚至机器学习的软件包!

    你怎么看?你要建立一个树莓派 Hadoop 集群吗?想要在其中挖掘一些什么吗?你在上面看到最令你惊奇的单词是什么?为什么 'S&P' 也能上榜?

    原文发布时间为:2017-05-07

    本文来自云栖社区合作伙伴“Linux中国”

    展开全文
  • 这是由三块pine64+开发板搭建的mini集群,网上有用树莓派搭建Hadoop文章,不过由于树莓派的性能实在太差了(很老的CPU,1G内存),所以最终我选择了与之价格相近(200左右一块)的pine64+(官方链接在此:...

    先上效果:

    这是由三块pine64+开发板搭建的mini集群,网上有用树莓派搭建Hadoop文章,不过由于树莓派的性能实在太差了(很老的CPU,1G内存),所以最终我选择了与之价格相近(200左右一块)的pine64+(官方链接在此:http://www.pine64.com/product),它有一颗4核64位的A53 CPU及2GB DDR3的内存。

    我目前安装了Hadoop、Spark、Zookeeper、HBase With Phoenix,除了Spark 1.6.1的snappy尚不支持ARM外(可使用LZ4CompressionCodec代替),搭建过程和普通的硬件没有区别。怎么安装可以参见网上的各类文章或参考我的电子书:http://gudaoxuri.github.io/bd-lab/

    再来张使用DBeaver查询HBase的效果:

    在ARM板上运行大数据集群在什么用处呢?我觉得有三点:

    1. 个人实验用,ARM板便宜,又比虚拟机贴近真实,用来学习或新技术实验是个不错的选择

    2. 节能,目前大数据集群很耗能,相比而言,ARM架构有可能在能耗与性能上找到平衡点

    3. 移动化,目前大多移动设备都是ARM架构的,如果以后大数据服务单节点足够轻量,可以运行在各个手机中,那么也许会有很多新的场景,这点不是我异想天开,看看databricks的一篇很有意思的调研文章:https://databricks.com/blog/2015/04/01/spark-2-rearchitecting-spark-for-mobile.html

    转载于:https://my.oschina.net/gudaoxuri/blog/690174

    展开全文
  • 初识树莓派

    2015-03-26 20:53:00
    大数据时代,随着智能手机、手环等产品的出现,也逐渐对智能硬件产生了兴趣。今天开始研究树莓派,哈哈。 树莓派是什么 树莓派是全球最小最便宜的个人计算机Raspberry Pi的中文译名,只有信用卡大小,是由英国的...

    大数据时代,随着智能手机、手环等产品的出现,也逐渐对智能硬件产生了兴趣。今天开始研究树莓派,哈哈。

    树莓派是什么

    树莓派是全球最小最便宜的个人计算机Raspberry Pi的中文译名,只有信用卡大小,是由英国的Raspberry Pi基金会开发的。最初的设计目的是以超低的硬件价格及开放的自由软件来为发展中国家的学生提供一个基本的计算机编程环境。但是随着树莓派计算机的推出,它已经成为了众多计算机爱好者的新工具,通过树莓派这种超低成本的迷你计算机,可以完成许多以前无法完成的事情,例如将树莓派和摄像头一起放在探空气球中,记录天气情况或者是用它来完成智能家电的控制等。

    截止到目前,树莓派已发布了第二代产品,在树莓派一代的基础上大幅度的提升了硬件性能,树莓派2基于4核Cortex-A7的Broadcom BCM2836 (ARMv7-A)芯片、双核VideoCore IV GPU和1GB内存,除了可以运行第一代树莓派支持的操作系统外,还将支持Windows 10以及Snappy Ubuntu Core系统。

    树莓派主要版本配置表如下:

     

    购买树莓派

    大家可以通过e络盟、爱板网、RS中国以及万能的淘宝网进行购买,由于e络盟、RS中国发货太慢,我最终选择了在淘宝网购买,花了264大洋买了RS版本树莓派+黑色外壳。

    其他需单独购买的配件清单如下:

    1、Micro SD卡(TF卡),用于安装系统,如果是学习的话购买8G或16G,更大存储空间可考虑外接硬盘。

    2、电源,输入功率为5V 1000mA的电源,如果有闲置的手机充电器及microUSB线可检查是否可用,可用的话就不需要单独购买了

    烧录树莓派操作系统

    在树莓派的官方网站http://www.raspberrypi.org/downloads/下载操作系统,官网提供了RASPBIAN、SNAPPY UBUNTU CORE、OPENELEC、RASPBMC、PIDORA、RISC OS等系统的下载链接。

    RASPBIAN使用的人较多,不过我比较喜欢UBUNTU,因此选择是SNAPPY UBUNTU CORE,系统默认登录帐号/密码是ubuntu/ubuntu。

    下载系统镜像之后,将Micro SD卡插入电脑,借助Win32 Disk Imager或类似的工具将镜像文件写入到Micro SD卡之中。

    组装树莓派

    树莓派组装还是比较简单的,直接将树莓派放到外壳中,拧紧4颗螺丝即可。

    然后将Micro SD卡插入卡槽,接上网线,并且插上电源即可。

    树莓派没有电源开关,插上电源即可开机启动。

    通过SSH客户端连接树莓派

    因为没有买额外的显示器,及USB键盘和鼠标,因此决定采用SSH客户端SecureCRTPortable远程连接树莓派。

    这里涉及到树莓派系统IP地址的问题,其实也很简单,路由器是DHCP动态分配IP的,通过路由器后台管理即可查找到树莓派的IP192.168.31.172。

    SNAPPY UBUNTU CORE默认已经安装了ssh,因此我们只需要在另外一台电脑上启动SecureCRTPortable,然后远程访问192.168.31.172,并输入默认的帐号\密码(ubuntu\ubuntu)即可连接到终端。

    至此算是初步进入了树莓派的世界了!

     

    转载于:https://www.cnblogs.com/imfanqi/p/4370025.html

    展开全文
  • 按图学树莓派SQLite3

    2018-09-22 15:12:33
    本博文在树莓派编写完成,参考...大数据时代,数据有为重要,让我们开启数据采集、存储之旅。 1. 安装SQLite sudo apt-get install sqlite 2. 编写表创建脚本 [create-table-only.sql] [create-ta...
  • 「清华大学出版社」联系了圈内纯Java方向的 9 家技术公众号,送出 45本技术书籍。包括Java,大数据,大前端,物联网树莓派,DevOps等方向!01 书怎么送长按下...
  • 这个方案利用一个加了摄像头的树莓派3B,通过MQTT,把拍摄的照片上传给阿里云IoT平台,再利用阿里云上的人脸识别技术取得多张人脸的属性,把这些数据保存在RDS数据库中,利用DATAV大数据展示工具投放在大屏上。...
  • 来源:大数据文摘本文约2100字,建议阅读5分钟本文为你介绍用树莓派DIY一个街机。都说男人的快乐很简单。在充斥着虚拟现实、云游戏服务,动不动就是一场数百万美元的电子竞技比赛的时代,...
  • Boogie Software是欧洲著名的金融科技公司,多年来致力于为银行提供Fintech、AI、大数据高性能后端、移动应用程序、数据分析及UX等创新服务,帮助银行推动数字化转型。凭借过去十多年在该领域的独特经验,Boogie已...
  • 文章目录1, 关于项目的简单介绍2, 背景知识的简单回顾2.1, 文件 I/O 的API函数2.2, 字符串的API函数3, 伪代码3.1 固定芯片的伪代码(简易版...现在是物联网, 大数据的时代, 多么多么火笔者就不再累赘, 而智能家居...
  • 大数据文摘出品 作者:Olivia、曹培信 用280个字符编写一个程序,你能写出什么? 也许你会说,我用Python调个包,啥功能都能给你实现了。 那可不行,你还得用BBC BASIC语言编写,在BBC Micro Model B...
  • python-conference-bingo ...大数据(分析) 松紧带 码头工人 D3.js 基础架构即代码 Ipython / Jupyter Notebook幻灯片 SaaS 云端 蒙蒂(Monty)Python GIF Python与Ruby 树莓派 开发运维 深潜
  • 「清华大学出版社」联系了圈内纯Java方向的 9 家技术公众号,送出 45本技术书籍。包括Java,大数据,大前端,物联网树莓派,DevOps等方向!01 书怎么送长按下...
  • 致力于用通俗易懂的大白话帮助零基础非计算机专业的初学者快速掌握人工智能、大数据可视化、区块链、Python趣味编程、树莓派智能硬件等前沿科技知识,并手把手指导新手迅速上手开发实战项目。 本文详细介绍了人工...
  • 有互联网后端(大数据、实时系统)开发经验优先 flink/kafka/redis/kudu openvc Qt 单片机/电子工程 arduino FreeRTOS MoveIt ros_control Autoware ..
  • 很囧的是在4月之后才过了2个月,就成功完成了跳槽,并没有如以前想的那样用上python或大数据。。。。 anyway,回到深圳。购物手痒买了树莓派,以后这个博客就记录下树莓派的玩耍过程吧。。。 淘宝上买来的板子,...
  • python 资源集合与开源硬件

    千次阅读 2019-02-14 12:03:47
    大数据相关 网络爬虫 测试 破解脚本 图表及图像相关 运维相关 树莓派 第三方平台 IDE 其他 博客与播客及书籍文档 他人总结 网页框架 Django Django - Django。 Channels - Cha...
  • Python学习资料总结

    千次阅读 2018-11-01 18:23:36
    大数据与人工智能相关 网络爬虫 测试与代码分析审核 安全与破解相关 图表及图像相关 语音相关 运维相关 树莓派 第三方平台 IDE 区块链 其他库 博客与播客及书籍文档 好的文章 他人总...
  • 大数据 区块链 比特币 以太坊 图书 密码学 使用Python进行数据科学 数据集 深度学习 前端 GIF 导游 清单 [苹果] 时事通讯 规约 (开放声音控制) 树莓派 搜索引擎优化(SEO) Vim XMPP 执照 这项工作是根据。
  • 收集转载-好参考

    千次阅读 2018-09-05 07:53:00
    python ======== python资源集合,持续更新。。。python 中文学习大本营。 目录 网页框架 Django Flask Tornado 其他网页框架 用户图形接口相关 ...大数据与人工智能相关 ...树莓派...
  • 一个小目标QAQ

    2019-04-02 19:27:17
    这是一个小目flag标 ...树莓派还有六个半 cmd 还要挣扎一下 oracle完全没动。。。 emulator?哦 我都忘了 这么一看简直绝望。。。容我挣扎一下吧。。。 . . . . . 突然想起还有trees和大数据…天要亡我! ...
  • 欢迎下载研华科技主题白皮书: ...[摘要] 物联网、大数据、云服务与人工智能,是产业数位转型的关键科技趋势,透过创新应用,将替各产业带来巨大商机与全新 局面。研华以坚强的硬件实力为基础,开发出多元软件服务。 ...
  • 灵光一闪

    2017-07-20 21:35:04
    现在进入了物联网时代,嵌入式甚是火爆,Android系统甚是火爆,树莓派也爆了,触摸交互技术越来越融入人们的生活,全息投影技术搞的甚欢,人工智能之AR与VR也炸锅了,这些都是硬件层面的;还有对应其软件层面的,...

空空如也

空空如也

1 2 3
收藏数 48
精华内容 19
关键字:

树莓派大数据