大数据都需要学什么?
首先我们要了解Java语言和Linux操作系统,这两个是学习大数据的基础,学习的顺序不分前后。大数据
Java :只要了解一些基础即可,做大数据不需要很深的Java 技术,学java SE 就相当于有学习大数据基础。webbrowser 取源码
Linux:因为大数据相关软件都是在Linux上运行的,所以Linux要学习的扎实一些,学好Linux对你快速掌握大数据相关技术会有很大的帮助,能让你更好的理解hadoop、hive、hbase、spark等大数据软件的运行环境和网络环境配置,能少踩很多坑,学会shell就能看懂脚本这样能更容易理解和配置大数据集群。还能让你对以后新出的大数据技术学习起来更快。
Hadoop:这是现在流行的大数据处理平台几乎已经成为大数据的代名词,所以这个是必学的。Hadoop里面包括几个组件HDFS、MapReduce和YARN,HDFS是存储数据的地方就像我们电脑的硬盘一样文件都存储在这个上面,MapReduce是对数据进行处理计算的,它有个特点就是不管多大的数据只要给它时间它就能把数据跑完,但是时间可能不是很快所以它叫数据的批处理。
Zookeeper:这是个万金油,安装Hadoop的HA的时候就会用到它,以后的Hbase也会用到它。它一般用来存放一些相互协作的信息,这些信息比较小一般不会超过1M,都是使用它的软件对它有依赖,对于我们个人来讲只需要把它安装正确,让它正常的run起来就可以了。
Mysql:我们学习完大数据的处理了,接下来学习学习小数据的处理工具mysql数据库,因为一会装hive的时候要用到,mysql需要掌握到什么层度那?你能在Linux上把它安装好,运行起来,会配置简单的权限,修改root的密码,创建数据库。这里主要的是学习SQL的语法,因为hive的语法和这个非常相似。
Sqoop:这个是用于把Mysql里的数据导入到Hadoop里的。当然你也可以不用这个,摄影接单源码直接把Mysql数据表导出成文件再放到HDFS上也是一样的,当然生产环境中使用要注意Mysql的压力。
Hive:这个东西对于会SQL语法的来说就是神器,它能让你处理大数据变的很简单,不会再费劲的编写MapReduce程序。有的人说Pig那?它和Pig差不多掌握一个就可以了。
Oozie:既然学会Hive了,我相信你一定需要这个东西,它可以帮你管理你的Hive或者MapReduce、Spark脚本,还能检查你的程序是否执行正确,出错了给你发报警并能帮你重试程序,最重要的是还能帮你配置任务的依赖关系。我相信你一定会喜欢上它的,不然你看着那一大堆脚本,和密密麻麻的crond是不是有种想屎的感觉。
Hbase:这是Hadoop生态体系中的NOSQL数据库,他的数据是按照key和value的形式存储的并且key是唯一的,所以它能用来做数据的排重,它与MYSQL相比能存储的数据量大很多。所以他常被用于大数据处理完成之后的存储目的地。
Kafka:这是个比较好用的队列工具,队列是干吗的?排队买票你知道不?数据多了同样也需要排队处理,这样与你协作的其它同学不会叫起来,你干吗给我这么多的数据(比如好几百G的文件)我怎么处理得过来,你别怪他因为他不是搞大数据的,你可以跟他讲我把数据放在队列里你使用的时候一个个拿,这样他就不在抱怨了马上灰流流的去优化他的程序去了,因为处理不过来就是他的事情。而不是你给的问题。当然我们也可以利用这个工具来做线上实时数据的入库或入HDFS,这时你可以与一个叫Flume的工具配合使用,它是专门用来提供对数据进行简单处理,并写到各种数据接受方(比如Kafka)的。
Spark:它是用来弥补基于MapReduce处理数据速度上的缺点,它的特点是把数据装载到内存中计算而不是去读慢的要死进化还特别慢的硬盘。特别适合做迭代运算,所以算法流们特别稀饭它。它是用scala编写的。Java语言或者Scala都可以操作它,因为它们都是用JVM的。
学数据库以后可以做什么?
只会写代码的是码农;学好数据库,基本能混口饭吃
;在此基础上再学好操作系统和计算机网络
,驱动源码获取就能当一个不错的程序员。如果能再把离散数学、数字电路、体系结构、数据结构/算法、编译原理学通透,再加上丰富的实践经验与领域特定知识,就能算是一个优秀的工程师了。计算机
其实就是存储/IO/CPU三大件;而计算
说穿了就是两个东西:数据与算法(状态与转移函数)
。常见的软件应用,除了各种模拟仿真、模型训练、视频游戏这些属于计算密集型应用
外,绝大多数都属于数据密集型应用
。从最抽象的意义上讲,这些应用干的事儿就是把数据拿进来,存进数据库,需要的时候再拿出来。抽象
是应对复杂度的最强武器。操作系统提供了对存储的基本抽象:内存寻址空间与磁盘逻辑块号。文件系统在此基础上提供了文件名到地址空间的KV存储抽象。而数据库则在其基础上提供了对应用通用存储需求的高级抽象
。互联网应用大多属于
数据密集型应用
,对于真实世界的数据密集型应用而言,除非你准备从基础组件的轮子造起,不然根本没那么多机会去摆弄花哨的数据结构和算法。甚至写代码的本事可能也没那么重要:可能只会有那么一两个AdHoc算法需要在应用层实现,大部分需求都有现成的轮子可以使用,主要的创造性工作往往在数据模型与数据流设计上。实际生产中,数据表就是数据结构,索引与查询就是算法
。而应用代码往往扮演的是胶水
的角色,处理IO与业务逻辑,其他大部分工作都是在数据系统之间搬运数据
。在最宽泛的意义上,
有状态的地方就有数据库
。它无所不在,网站的背后、应用的内部,单机软件,区块链里,甚至在离数据库最远的tv源码 javaWeb浏览器中,也逐渐出现了其雏形:各类状态管理框架与本地存储。“数据库”可以简单地只是内存中的哈希表/磁盘上的日志,也可以复杂到由多种数据系统集成而来。关系型数据库只是数据系统的冰山一角
(或者说冰山之巅),实际上存在着各种各样的数据系统组件:数据库
:存储数据,以便自己或其他应用程序之后能再次找到(PostgreSQL,MySQL,Oracle)缓存
:记住开销昂贵操作的结果,加快读取速度(Redis,Memcached)搜索索引
:允许用户按关键字搜索数据,或以各种方式对数据进行过滤(ElasticSearch)流处理
:向其他进程发送消息,进行异步处理(Kafka,Flink,Storm)批处理
:定期处理累积的大批量数据(Hadoop)架构师最重要的能力之一,就是了解这些组件的性能特点与应用场景,能够灵活地权衡取舍、集成拼接这些数据系统。
绝大多数工程师都不会去从零开始编写存储引擎,因为在开发应用时,数据库已经是足够完美的工具了。关系型数据库则是目前所有数据系统中使用最广泛的组件,可以说是程序员吃饭的主要家伙,重要性不言而喻。对玩具应用而言,使用内存变量与文件来保存状态也许已经绰绰有余了。但随着系统的增长,我们会遇到越来越多的挑战:软硬件故障把数据搞成一团浆糊(可靠性);状态太多而内存太小放不下(可伸缩性);并发访问控制导致代码复杂度发生爆炸(可维护性),诸如此类。这些问题相当棘手,却又相当普遍,数据库就是用来解决这些问题的。
分拆
是架构演化的重要方法论,数据库将状态管理
的职能从应用程序中分拆出来,即所谓的“状态与计算相分离”。数据库将程序员从重复造轮子的泥潭中解救出来,极大地解放了生产力。每个系统都服务于一个目的,解决一类问题。
问题比方法更重要
。但现实很遗憾,以大多数学生,甚至相当一部分公司能接触到的现实问题而言,拿几个文件甚至在内存里放着估计都能应付大多数场景了(需求简单到低级抽象就可以Handle)。npm 源码包没什么机会接触到数据库真正要解决的问题,也就难有真正使用与学习数据库的驱动力,更别提数据库原理了
。所以我也理解当前这种填鸭教学现状的苦衷:工作之后很难有这么大把的完整时间来学习原理了,所以老师只好先使劲灌输,多少让学生对这些知识有个印象。等学生参加工作后真正遇到这些问题,也许会想起大学好像还学了个叫
数据库
的东西,这些知识就会开始反刍。数据库,尤其是关系型数据库,非常重要。那为什么要学习其原理呢?
对
优秀
的工程师来说,只会用
数据库是远远不够的。学习原理对于当CRUDBOY搬砖收益并不大,但当通用组件真的无解
需要自己撸起袖子上时,没有金坷垃怎么种庄稼?设计系统时,理解原理能让你以最少的复杂度代价写出更可靠高效的代码;遇到疑难杂症需要排查时,理解原理能带来精准的直觉与深刻的洞察。
数据库是一个博大精深的领域,存储I/O计算无所不包。其主要原理也可以粗略分为几个部分:数据模型设计原理(应用)、存储引擎原理(基础)、索引与查询优化器的原理(性能)、事务与并发控制的原理(正确性)、故障恢复与复制系统的原理(可靠性)。 所有的原理都有其存在意义:为了解决实际问题。
例如
数据模型设计中
的范式理论
,就是为了解决数据冗余
这一问题而提出的,它是为了把事情做漂亮(可维护)
。它是模型设计中一个很重要的设计权衡:通常而言,冗余少则复杂度小/可维护性强,冗余高则性能好
。具体来说,冗余字段能加快特定类型的读取(通过消除连接),但在写入时就需要做更多的工作:维护多对象副本间的一致性,避免多对象事务并发执行时发生踩踏。这就需要仔细权衡利弊,选择合适的规范化等级。数据模型设计,就是生产中的数据结构设计
。不了解这些原理,就难以提取良好的抽象,其他工作也就无从谈起。
而
关系代数与索引
的原理,则在查询优化中扮演重要的角色,它是为了把事情做得快(性能,可扩展)
。当数据量越来越大,SQL写的越来越复杂时,它的意义就会体现出来:怎样写出等价但是更高效的查询?
当查询优化器没那么智能时,就需要人来干这件事。这种优化往往有四两拨千斤的效果
,比如一个需要几秒的KNN查询,如果知道R树索引的原理,就可以通过改写查询
,创建GIST索引优化到1毫秒内,千倍的性能提升。不了解索引与查询设计原理,就难以充分发挥数据库的性能。
事务与并发控制的原理,
是为了把事情做正确
。事务是数据处理领域最伟大的抽象之一,它提供了很多有用的保证(ACID),但这些保证到底意味着什么?
事务的原子性
让你在提交前能随时中止事务并丢弃所有写入,相应地,事务的持久性
则承诺一旦事务成功提交,即使发生硬件故障或数据库崩溃,写入的任何数据也不会丢失。这让错误处理变得无比简单,所有可能的结果被归结为两种情况:要么成功完事,要么失败了事(或重试)
。有了后悔药,程序员不用再担心半路翻车会留下惨不忍睹的车祸现场了。另一方面,事务的
隔离性
则保证同时执行的事务无法相互影响(在可序列化隔离等级下)。更进一步,数据库提供了不同的隔离等级保证,以供程序员在性能与正确性之间进行权衡
。编写并发程序并不容易,在几万TPS的负载下,各种极低概率,匪夷所思的问题都会出现:事务之间相互踩踏,丢失更新,幻读与写入偏差,慢查询拖慢快查询导致连接堆积,单表数据库并发增大后的性能急剧恶化,比如我遇到的一个最灵异的例子
是:快慢查询总量都减少,但因相对比例变化导致数据库被压垮。这些问题,在低负载的情况下会潜伏着,随着规模量级增长突然跳出来,给你一个大大的惊喜。现实中真正可能出现的各类异常
,也绝非SQL标准中简单的几种异常能说清的。不理解事务的原理,意味着应用的正确性与数据的完整性可能遭受不必要的损失。
故障恢复与复制
的原理,可能对于普通程序员没有那么重要,但架构师与DBA必须清楚。高可用是很多应用的追求目标,但什么是高可用,高可用怎么保证?读写分离?快慢分离?异地多活?x地x中心?说穿了底下的核心技术其实就是复制(Replication)
(或再加上自动故障切换(Failover)
)。这里有无穷无尽的坑:复制延迟
带来的各种灵异现象,网络分区
与脑裂
,存疑事务
,诸如此类。不理解复制的原理,高可用就无从谈起。
对于一些程序员而言,可能数据库就是“增删改查”,包一包接口,原理似乎属于“屠龙之技”。如果止步于此,那原理确实没什么好学的,但有志者应当打破砂锅问到底的精神。私认为只了解自己本领域知识是不够的,只有把当前领域赖以建立的上层领域摸清楚,才能称为专家。在数据库面前,后端也是前端;对于程序员的知识栈而言,数据库是一个合适的栈底。
上面讲了
WHY
,下面就说一下HOW
数据库教学的一个矛盾是:
如果连数据库都不会用,那学数据库原理有个卵用呢?
学数据库的原则是
学以致用
。只有实践,才能带来对问题的深刻理解;只有先知其然,才有条件去知其所以然。
教材可以先草草的过一遍,然后直接去看数据库文档,上手去把数据库用起来,做个东西出来。通过实践掌握数据库的使用,再去学习原理就会事半功倍(以及充满动力)。对于学习而言,有条件去实习当然最好,没有条件那最好的办法就是自己创造场景,自己挖掘需求。
比如,从解决个人需求开始:管理个人密码,体重跟踪,记账,做个小网站、在线聊天App,实用微信小程序。当它演化的越来越复杂,开始有多个用户,出现各种蛋疼问题之后,你就会开始意识到
事务
的意义。再比如,结合爬虫,抓一些房价、股价、地理、社交网络的数据存在数据库里,做一些挖掘与
分析
。当你积累的数据越来越多,分析查询越来越复杂;SQL长得没法读,跑起来慢出猪叫,这时候关系代数的理论就能指导你进一步进行优化。当你意识到这些设计都是为了解决现实生产中的问题,并亲自遇到过这些问题之后,再去学习原理,才能相互印证,并知其所以然。当你发现查询时间随数据增长而指数增长时;当你遇到成千上万的用户同时读写为并发控制焦头烂额时;当你碰上软硬件故障把数据搅得稀巴烂时;当你发现数据冗余让代码复杂度快速爆炸时;你就会发现这些设计存在的意义。
教材、书籍、文档、视频、邮件组、博客都是很好的学习资源。教材的话华章的黑皮系列教材都还不错,《数据库系统概念》这本就挺好的。但我推荐先看看这本书:
《设计数据密集型应用》
,写的非常好,我觉得不错就义务翻译了一下。纸上得来终觉浅,绝知此事要躬行。写了这么多,不带点“
私货
”也不合适哈?实践方能出真知,新手上路选哪家?我个人推荐PostgreSQL,如果能再选一样就加个Redis。对开发而言,这是相当实用的组合。PostgreSQL号称世界上最先进的开源关系型数据库
,源代码写的非常漂亮,有很多值得学习的地方。很多国外的数据库课程与教科书都使用PostgreSQL作为教学样例。PostgreSQL在现实世界中也表现不俗,在我们的实践中,在WTPS与TB数据的量级下,
单一PostgreSQL选型
依然能稳如狗地支撑业务。而且其功能丰富到不可思议
,能在很可观的规模内做到一专多长,除了本职的OLTP,Pg还在相当长的时间里兼任了缓存,OLAP,批处理,甚至消息队列的角色。当然如“架构演进”一图所示,神龟虽寿,犹有竟时。最终这些兼职功能还是要逐渐分拆
出去由专用组件负责,但那已经是近千万日活时的事了。所以,关系型数据库虽然强大,却绝非数据处理的终章。数据库的世界非常精彩,尽可能地去尝试各种各样的组件吧~。
python基础都有哪些内容呢?
阶段一:Python开发基础
Python全栈开发与人工智能之Python开发基础知识学习内容包括:Python基础语法、数据类型、字符编码、文件操作、函数、装饰器、迭代器、内置方法、常用模块等。
阶段二:Python高级编程和数据库开发
Python全栈开发与人工智能之Python高级编程和数据库开发知识学习内容包括:面向对象开发、Socket网络编程、线程、进程、队列、IO多路模型、Mysql数据库开发等。
阶段三:前端开发
Python全栈开发与人工智能之前端开发知识学习内容包括:Html、CSS、JavaScript开发、Jquery&bootstrap开发、前端框架VUE开发等。
阶段四:WEB框架开发
Python全栈开发与人工智能之WEB框架开发学习内容包括:Django框架基础、Django框架进阶、BBS+Blog实战项目开发、缓存和队列中间件、Flask框架学习、Tornado框架学习、Restful API等。
阶段五:爬虫开发
Python全栈开发与人工智能之爬虫开发学习内容包括:爬虫开发实战。
阶段六:全栈项目实战
Python全栈开发与人工智能之全栈项目实战学习内容包括:企业应用工具学习、CRM客户关系管理系统开发、路飞学城在线教育平台开发等。
阶段七:数据分析
Python全栈开发与人工智能之数据分析学习内容包括:金融量化分析。
阶段八:人工智能
Python全栈开发与人工智能之人工智能学习内容包括:机器学习、图形识别、无人机开发、无人驾驶等。
阶段九:自动化运维&开发
Python全栈开发与人工智能之自动化运维&开发学习内容包括:CMDB资产管理系统开发、IT审计+主机管理系统开发、分布式主机监控系统开发等。
阶段十:高并发语言GO开发
Python全栈开发与人工智能之高并发语言GO开发学习内容包括:GO语言基础、数据类型与文件IO操作、函数和面向对象、并发编程等。
这是我校课程大纲,不妨试试!
djangoå端ç¨ä»ä¹åï¼
导读ï¼ä»å¤©é¦å¸CTOç¬è®°æ¥ç»åä½åäº«å ³äºdjangoå端ç¨ä»ä¹åçç¸å ³å 容ï¼å¦æè½ç¢°å·§è§£å³ä½ ç°å¨é¢ä¸´çé®é¢ï¼å«å¿äºå ³æ³¨æ¬ç«ï¼ç°å¨å¼å§å§ï¼ç¨Djangoå¼åwebå端,ççæ¯SpringBootè¦çäºå?ç¨Djangoå¼åwebå端并ä¸æ¯SpringBootè¦çäºã
spring好å¤å°±æ¯å½ä½ éè¦æ¶æ¯éåï¼æè æå¡æ³¨ååç°ï¼é ç½®ä¸å¿çççæ¶åé ç½®æ¯è¾æ¹ä¾¿ï¼å¦æä¸èèå¾®æå¡ï¼springbootä¹åªæ¯æ¯javaä¸çéé¢å ¶ä»çæ¹ä¾¿èå·²ã
èpythonä¸çæ³è¦éæä¸è¿°å 个åè½å¹¶ä¸è¾¾å°ä¸å®çç产级å«æ¯è¦æ¯spring麻ç¦çå¤ã
ä»æ§è½ä¸è®²ï¼çè¿ä¸äºæµè¯ï¼springå 为æ¿ç¨æ·åäºå¾å¤ç±»åæ¨æçäºæ ï¼çº¯æ§è½å¨javaä¸çä¹å°±æ¯ç¨çã
pythonå¦æä¸æ¯ä¸å¼å§å°±ä¸pypyï¼é£å°±æ¯ä¸ä¸ªjitçæ§è½å·®è·ï¼å¤§æ¦å°±æ¯ååå§ã
æå讨论ä¸é对软件å¼åã
javaå®å°±æ¯æ¶è代ç ï¼å®æåæ ·åè½è°éè¦åç代ç æ´å¤å°±æ´èæ¶ï¼æ¾ç¶goæ¯è¦å°äºä¸å°ä»£ç ã
èæçç解ä¸ï¼pythonéè¦1å®æçä¸è¥¿goå¾1.5以ä¸javaå°2以ä¸ï¼æ¾ç¶èè´¹çæ¶é´ä¹å°±æ¯åºäºè¿ä¸ªæ¯ä¾ã
对äºä¸ªäººå¿æºè´æ èå´å ç项ç®ï¼ææ¯æ²¡ä»ä¹çç±éæ©javaçï¼å 为代ç è¡æ°å°±æ¯æ¶é´ï¼æ¶é´å°±æ¯éé±ã
è对äºä¸åæµè¯è®¾è®¡ç¨çç项ç®ï¼è¿é javaä¹èä¸ä½ãæ以å§ï¼å¦æä¸æ¯ä¸ªå¤§é¡¹ç®ï¼æè§å¹¶ä¸å¤ªéè¦javaåºé©¬ä»¥åï¼é¤éæ¯æäºå¿ ç¶è¦éæ©çåå ã
è³äºå¤§é¡¹ç®ï¼è¿äºæè¿æ²¡ç没å¥æ¦å¿µï¼å¤§è´ç»è®¡äºä¸ä»¥å项ç®çææ代ç ï¼ä¸ç®æ³¨é第ä¸æ¹åºï¼ç°å¨å ¬å¸ä¸¤ä¸å¹´ç项ç®å¤ç«¯ååå°å èµ·æ¥ä¹å°±æ¯æ¥ä¸è¡ãè¿ä¹å°±ç®æ¯æ碰å°ç°å¨è§æ¨¡æ大çäºã
å©ä¸çæ¾ç»æ个åä¸é¡¹ç®åäºä¸ä¸ªæå·®ä¸å¤ååå°ä¹å°±æ¯ä¸ä¸å¤è¡ã
æå说ç»è®ºå§ï¼é¡¹ç®å°ï¼å¨æçï¼æå ¥å°ï¼è¿æ¯å°±djangoå§ã
djangoæ¡æ¶ä»ç»
Djangoæ¯é«æ°´åçPythonç¼ç¨è¯è¨é©±å¨çä¸ä¸ªå¼æºæ¨¡åï¼è§å¾ï¼æ§å¶å¨é£æ ¼çWebåºç¨ç¨åºæ¡æ¶ï¼å®èµ·æºäºå¼æºç¤¾åºã使ç¨è¿ç§æ¶æï¼ç¨åºåå¯ä»¥æ¹ä¾¿ãå¿«æ·å°å建é«åè´¨ãæç»´æ¤ãæ°æ®åºé©±å¨çåºç¨ç¨åºãè¿ä¹æ£æ¯OpenStackçHorizonç»ä»¶éç¨è¿ç§æ¶æè¿è¡è®¾è®¡ç主è¦åå ã
å¦å¤ï¼å¨Djangoæ¡æ¶ä¸ï¼è¿å å«è®¸å¤åè½å¼ºå¤§ç第ä¸æ¹æ件ï¼ä½¿å¾Djangoå ·æè¾å¼ºçå¯æ©å±æ§ãDjango项ç®æºèªä¸ä¸ªå¨çº¿æ°é»Webç«ç¹ï¼äºå¹´ä»¥å¼æºçå½¢å¼è¢«éæ¾åºæ¥ã
Djangoæ¡æ¶çæ ¸å¿ç»ä»¶æï¼
1ãç¨äºå建模åçå¯¹è±¡å ³ç³»æ å°ã
2ã为æç»ç¨æ·è®¾è®¡è¾å¥½ç管ççé¢ã
3ãURL设计ã
4ã设计è å好ç模æ¿è¯è¨ã
5ãç¼åç³»ç»ã
Django(åé³ï¼[`dÉ¡?])æ¯ç¨pythonè¯è¨åçå¼æºwebå¼åæ¡æ¶(opensourcewebframework)ï¼å®é¼å±å¿«éå¼å,并éµå¾ªMVC设计ãDjangoéµå®BSDçæï¼å次åå¸äºå¹´7æ,并äºå¹´9æåå¸äºç¬¬ä¸ä¸ªæ£å¼çæ¬1.0ã
Djangoæ ¹æ®æ¯å©æ¶ççµå£«é³ä¹å®¶DjangoReinhardtå½åï¼ä»æ¯ä¸ä¸ªåæ®èµäººï¼ä¸»è¦ä»¥æ¼å¥åå®ä¸ºä¸»ï¼è¿æ¼å¥è¿å°æç´çã
ç±äºDjangoå¨è¿å¹´æ¥çè¿ éåå±ï¼åºç¨è¶æ¥è¶å¹¿æ³ï¼è¢«èåITå¼åæå¿SDTimesè¯é为SDTimesï¼ä½åâAPIãåºåæ¡æ¶âå类第6ä½ï¼è¢«è®¤ä¸ºæ¯è¯¥é¢åç佼佼è ã
django+vueåå端å离项ç®é¨ç½²
å端ç¨çdrfï¼ä½¿ç¨çæ¯uwsgi+nginx
è¿å ¥æå¡å¨é¡¹ç®æ件ç®å½ä¸ï¼æçdjango项ç®æ¾å¨äºâ/usr/myProjects/âç®å½ä¸äºãå¨manage.pyå级ç®å½ä¸å建uwsgi.iniæ件ï¼é ç½®å¦ä¸ï¼
æµè¯ææå½ä»¤ï¼
å¦æ访é®ï¼xxx.xxx.xxx.xx:æåï¼åuwsgi.inié ç½®æå
æçnginx.confæå¨ä½ç½®æ¯â/etc/nginx/nginx.confâ
é ç½®æ件å¦ä¸ï¼
1ã第ä¸è¡
主è¦å°±æ¯ç»nginxå æéï¼vueé¨ç½²å使ç¨historyè·¯ç±æ¶ä¼å»æå°ååé¢çâ#âå·ï¼æå é¨ç½²åä¸å æéä¼æbugã
2ãå¦é ç½®æ示ï¼æ两个Serverï¼åå«é¨ç½²äºå端æå¡ï¼åå端æå¡ï¼å¼å¾æ³¨æçæ¯ä¸¤ä¸ªServerç¨çæ¯åä¸ä¸ªæå¡å¨ï¼çå¬ç端å£ä¸åã
3ãvueé¨ç½²éè¦æ³¨æçæ¯åå代çå°åï¼
以ååé¢ç端å£é®é¢
4ãå端çServeréè¦æ³¨ælocationä¸çuwsgi_passåé¢ç端å£å·è¦åuwsgi.iniä¸é çç¸åï¼å¦åçå¬ä¸å°
5ãå端跨åé®é¢ãå¦æéå°è·¨åéè¦èªå·±ç½ä¸æ¾é ç½®ï¼æç没éå°ï¼å¯è½æ¯å 为æå¨djangoçsettingsä¸é ç½®äºè·¨åã
6ãdjango-suitåå°ç®¡çæ ·å¼å´©äºï¼éè¦æ¹ï¼ä½æ¯apiå¯ä»¥æ£å¸¸è®¿é®ï¼è¿ä¸ªæ空å说
7ãæå¼å§åå°çå¬çæ¯ç«¯å£ï¼vueå端çå¬çæ¯ç«¯å£ï¼è¿æ ·å端æ¾ç¤ºå¥½çãç¶èé®é¢åºç°äºï¼è½ç¶åå°apiå¯ä»¥æ£å¸¸è®¿é®ï¼vueçæ¬å°å¼åç¯å¢ä¹è½æ£å¸¸è¿è¡ä¸æåãå¾çèµæºåæ¾ç¤ºæ£å¸¸ï¼ä½æ¯å端vueæå 线ä¸é¨ç½²åï¼æåä¿¡æ¯æ¾ç¤ºæ£å¸¸ï¼å¾çä¿¡æ¯ç¼ºå¤±ç«¯å£ï¼å¯¼è´æ¾ç¤ºä¸åºæ¥ã为å¾æ¹ä¾¿æéæ©äºå端çå¬ç«¯å£ï¼å端çå¬ï¼é¨ç½²åæ¾ç¤ºæ£å¸¸ãåå ä¸å¤ªæ¸ æ¥///////æ空å说å§ã
8ãä¸è¦é®æ为å¥é½åå端å离äºè¿é¨ç½²å°ä¸ä¸ªæå¡å¨ä¸ï¼ç©·ï¼èä¸åªæ¯æµè¯ï¼æ²¡å¿ è¦
9ãæ¤æä» éåå ¥é¨
å ³äºdjangoåå°adminï¼suitï¼ç¼ºå¤±çä¿®æ¹ï¼åèï¼djangoä¸æç½ï¼ï¼
å¨ç¯å¢ä¸è¿å ¥é¡¹ç®ç®å½ï¼éè¦æ¶écssæ ·å¼ï¼å¨ç»ç«¯è¾å ¥å½ä»¤ï¼
æ¥ä¸æ¥ä½ å°±ååç°staticæ件ä¸å å«äºcssæ件ï¼æ¤æ¶åæå¼ç½ç«ï¼æ ·å¼æ¾ç¤ºæ£å¸¸
uWSGIéè¿xxx.iniå¯å¨åä¼å¨ç¸åç®å½ä¸çæä¸ä¸ªxxx.pidçæ件ï¼éé¢åªæä¸è¡å 容æ¯uWSGIç主è¿ç¨çè¿ç¨å·ã
å ³äºuwsgi,è¿å ¥åå±ç®å½ä¸
æè®
è·åä¸å°ç¯å¢ï¼é£å°±æå®ç¯å¢
å¦å¤ï¼è®°å¾éå¯uwsgiï¼éå¯Nginxï¼å®å¨ä¸è¡å°±å æçå¬ç端å£killæåéå¯
æ´åå 端å£ï¼fuser-k/tcp
netstat-aptnå½ä»¤è¡ï¼æ¥çææå¼å¯ç端å£å·
netstat-ntlp|grepæ¥çå ·ä½ç端å£æ¯å¦ä½¿ç¨
ps-ef|grepuwsgiæ¥çæ¯å¦æuwsgi端å£åå¨
Djangoæ¯ä¸æ¯ä¸ç¨ååå°çï¼ç¨èªå¸¦çadmin管çæ°æ®åºå°±è¡äºæéå离æ¯è¾éº»ç¦ï¼é»è®¤ä¸åå¨åªè¯»ç®¡çåå¸å·ãèªå·±å®ç°åªè¯»å¸å·æ¯è¾tricky
æç´¢åè½ä¸å¼ºå¤§ï¼èªå·±å®ç°é«çº§æç´¢å¾tricky
人家ç模æ¿å°±æ²¡èèè¿è®©ä½ éç¨ï¼çæ¬å级åä½ èªå®ä¹è¿ç模æ¿å¯è½éè¦æåæ´mergeå°æ°ç模æ¿é
å端ç¨äºDjangoè¿éè¦åç¬çå端æ¡æ¶åå ³äºå端ç¨åºååå端ç¨ä»¥ä¸æ¡æ¶ï¼
1ãç¨Dreamweaveræè ç½é¡µæ¥çæºä»£ç ã
2ãbootstrap对ååºå¼çæ¯æ以åè¯å¥½çä½éª
3ãmetronic/adminLTEè¿ä¸ªæ¡æ¶ç代ç æ´å¤çæ¯å±äºç²ååï¼å°åç§ä¸åç第ä¸æ¹åºçå端代ç ç²åèµ·æ¥ã
4ãextjsç³»åãè¿ä¸ªæ¯å端é¢åçåºç¶å¤§ç©å°è£ 度å¾é«ï¼å ·æèªç§°ä½ç³»çå ç´ éæ©å¼æåæµè§å¨å ¼å®¹æ¹æ¡ï¼JSåæ³ä¹æèªå·±çæ¹å¼ï¼ç»ä»¶å¾å¤ã
5ãvaadin/GWTæ¯ä½¿ç¨åå°è¯è¨åå端ãä¸è¿ä¸æ¯å¾å»ºè®®ä½¿ç¨è¿ç§æ¹æ¡ã
ç¨djangoå端å¼åè¦å¦ä»ä¹ç¬¬ä¸é¶æ®µï¼Pythonè¯è¨åºç¡
主è¦å¦ä¹ Pythonæåºç¡ç¥è¯ï¼å¦Python3ãæ°æ®ç±»åãå符串ãå½æ°ãç±»ãæ件æä½çãé¶æ®µè¯¾ç¨ç»æåï¼å¦åéè¦å®æPygameå®æé£æºå¤§æãç项ç®ã
第äºé¶æ®µï¼Pythonè¯è¨é«çº§
主è¦å¦ä¹ Pythonåºãæ£å表达å¼ãè¿ç¨çº¿ç¨ãç¬è«ãéå以åMySQLæ°æ®åºã
第ä¸é¶æ®µï¼Pythonwebå¼å
主è¦å¦ä¹ HTMLãCSSãJavaScriptãjQueryçå端ç¥è¯ï¼ææ¡pythonä¸å¤§å端æ¡æ¶(DjangoãFlask以åTornado)ãéè¦å®æç½é¡µçé¢è®¾è®¡å®æ;è½ç¬ç«å¼åç½ç«ã
第åé¶æ®µï¼Linuxåºç¡
主è¦å¦ä¹ Linuxç¸å ³çåç§å½ä»¤ï¼å¦æ件å¤çå½ä»¤ãå缩解åå½ä»¤ãæé管ç以åLinuxShellå¼åçã
第äºé¶æ®µï¼Linuxè¿ç»´èªå¨åå¼å
主è¦å¦ä¹ Pythonå¼åLinuxè¿ç»´ãLinuxè¿ç»´æ¥è¦å·¥å ·å¼åãLinuxè¿ç»´æ¥è¦å®å ¨å®¡è®¡å¼åãLinuxä¸å¡è´¨éæ¥è¡¨å·¥å ·å¼åãKaliå®å ¨æ£æµå·¥å ·æ£æµä»¥åKaliå¯ç ç ´è§£å®æã
第å é¶æ®µï¼Pythonç¬è«
主è¦å¦ä¹ pythonç¬è«ææ¯ï¼ææ¡å¤çº¿ç¨ç¬è«ææ¯ï¼åå¸å¼ç¬è«ææ¯ã
第ä¸é¶æ®µï¼Pythonæ°æ®åæå大æ°æ®
主è¦å¦ä¹ numpyæ°æ®å¤çãpandasæ°æ®åæãmatplotlibæ°æ®å¯è§åãscipyæ°æ®ç»è®¡åæ以åpythonéèæ°æ®åæ;HadoopHDFSãpythonHadoopMapReduceãpythonSparkcoreãpythonSparkSQL以åpythonSparkMLlibã
ç¬¬å «é¶æ®µï¼Pythonæºå¨å¦ä¹
主è¦å¦ä¹ KNNç®æ³ã线æ§åå½ãé»è¾æ¯èåå½ç®æ³ãå³çæ ç®æ³ãæ´ç´ è´å¶æ¯ç®æ³ãæ¯æåéæºä»¥åèç±»k-meansç®æ³ã
ç»è¯ï¼ä»¥ä¸å°±æ¯é¦å¸CTOç¬è®°ä¸ºå¤§å®¶æ´ççå ³äºdjangoå端ç¨ä»ä¹åçå ¨é¨å 容äºï¼æè°¢æ¨è±æ¶é´é 读æ¬ç«å 容ï¼å¸æ对æ¨ææ帮å©ï¼æ´å¤å ³äºdjangoå端ç¨ä»ä¹åçç¸å ³å 容å«å¿äºå¨æ¬ç«è¿è¡æ¥æ¾åã
2024-11-30 20:27
2024-11-30 20:22
2024-11-30 19:33
2024-11-30 18:47
2024-11-30 18:28