• 关于

    机器对机器是啥

    的搜索结果

回答

Java是解释性语言还是编译型的,这个我觉得不好说,倒不是骑墙。我的理解:Java源程序通过javac编译成中间代码class文件,这也是实现Java跨平台的方式(Java开发的程序交付一般都是jar或者war包,只要系统上有JVM就能运行了)。那么从class文件到机器码的过程呢?这时候就需要JVM出马了。JVM有三种执行模式:解释执行,编译执行,混合执行(默认是混合执行)。Java一共有两套解释器,一个是古老的字节码解释器,还有一个是现在正在用的模板解释器,模板解释器将每一条字节码和一个模板函数关联,模板函数中直接产生这条字节码执行的机器码,类似于活字印刷术吧,这便实现了解释执行。但是这要效率还是很低,尤其是出现热点代码的时候,比如函数被频繁调用。为了解决这个问题,JVM又提供了一种叫做JIT(just in time)编译的技术,即将真个函数编译成机器码,每次函数执行只要执行编译后的机器码就行了。后来还出现了动态编译(Dynamic Conpiler)器,针对程序特性或者是让程序执行几个循环,在根据结果是否编译这段程序码。刚开始学的时候也有疑问,就是既然编译执行效率高为啥不都搞成编译执行模式而是要默认混合执行模式。首先来看一下编译执行和解释执行的优缺点,解释执行:解释一句执行一句,无需等待全部编译结束。编译执行:全部编译再执行,下一次再调用到这段代码的时候跳过解释直接用编译后的机器码。但根据28法则,20%的代码占用了80%的计算资源,那对于80%的不常用代码就没必要编译了,所以只对热点代码编译,当然我想jvm判断哪段代码编译哪段代码解释执行是综合考虑的
kissjz 2019-12-02 01:14:45 0 浏览量 回答数 0

回答

机器学习方面的面试主要分成三个部分: 1. 算法和理论基础 2. 工程实现能力与编码水平 3. 业务理解和思考深度 1. 理论方面,我推荐最经典的一本书《统计学习方法》,这书可能不是最全的,但是讲得最精髓,薄薄一本,适合面试前突击准备。 我认为一些要点是: 统计学习的核心步骤:模型、策略、算法,你应当对logistic、SVM、决策树、KNN及各种聚类方法有深刻的理解。能够随手写出这些算法的核心递归步的伪代码以及他们优化的函数表达式和对偶问题形式。 非统计学习我不太懂,做过复杂网络,但是这个比较深,面试可能很难考到。 数学知识方面,你应当深刻理解矩阵的各种变换,尤其是特征值相关的知识。 算法方面:你应当深刻理解常用的优化方法:梯度下降、牛顿法、各种随机搜索算法(基因、蚁群等等),深刻理解的意思是你要知道梯度下降是用平面来逼近局部,牛顿法是用曲面逼近局部等等。 2. 工程实现能力与编码水平 机器学习从工程实现一般来讲都是某种数据结构上的搜索问题。 你应当深刻理解在1中列出的各种算法对应应该采用的数据结构和对应的搜索方法。比如KNN对应的KD树、如何给图结构设计数据结构。如何将算法map-red化等等。 一般来说要么你会写C,而且会用MPI,要么你懂Hadoop,工程上基本都是在这两个平台实现。实在不济你也学个python吧。 3. 非常令人失望地告诉你尽管机器学习主要会考察1和2 但是实际工作中,算法的先进性对真正业务结果的影响,大概不到30%。当然算法必须要足够快,离线算法最好能在4小时内完成,实时算法我没搞过,要求大概更高。 机器学习大多数场景是搜索、广告、垃圾过滤、安全、推荐系统等等。对业务有深刻的理解对你做出来的系统的结果影响超过70%。这里你没做过实际的项目,是完全不可能有任何体会的,我做过一个推荐系统,没有什么算法上的高大上的改进,主要是业务逻辑的创新,直接就提高了很明显的一个CTR(具体数目不太方便透露,总之很明显就是了)。如果你做过实际的项目,一定要主动说出来,主动让面试官知道,这才是最大最大的加分项目。 最后举个例子,阿里内部机器学习挑战赛,无数碾压答主10000倍的大神参赛。最后冠军没有用任何高大上的算法而是基于对数据和业务的深刻理解和极其细致的特征调优利用非常基本的一个算法夺冠。所以啥都不如真正的实操撸几个生产项目啊。
马铭芳 2019-12-02 01:21:30 0 浏览量 回答数 0

回答

其实主要是阿里云想把经典网络全部切换为更安全的专有网络VPC。 另外经典网络的机器一般都是比较老的物理机和架构,可能稳定性上也不及vpc。 对用户来说,一般情况下基本上没啥影响。且VPC确实更安全。 希望采纳。
qq78315851 2019-12-02 00:06:15 0 浏览量 回答数 0

问题

阿里云cps的rand防cs只不过是一头纸老虎

对阿里云的CPS一直没啥兴趣也从来没有做过,既然话题又扯出来了就研究下吧。 大概漏洞很容易猜测到,下面的三行命令即完成了证实。 这个过程用PHP写一下同样3行代码就能完成,file_get_c...
云代维 2019-12-01 21:26:01 7270 浏览量 回答数 8

回答

http://bbs.csdn.net/topics/391049946 检查一下java的path配置,还有是多少位的,和你的系统以及as对应不 检查没啥问题就clean项目,rebuild,这就是个怪问题 androidstudio运行项目报错 解决方法:sdkmanager中更新extras中的文件......答案就在这里: AndroidStudio运行项目报错 ----------------------你好,人类,我是来自CSDN星球的问答机器人小C,以上是依据我对问题的理解给出的答案,如果解决了你的问题,望采纳。
爱吃鱼的程序员 2020-06-23 00:58:54 0 浏览量 回答数 0

回答

面试官心理分析 这个问题是肯定要问的,说白了,就是看你有没有实际干过 es,因为啥?其实 es 性能并没有你想象中那么好的。很多时候数据量大了,特别是有几亿条数据的时候,可能你会懵逼的发现,跑个搜索怎么一下 5~10s,坑爹了。第一次搜索的时候,是 5~10s,后面反而就快了,可能就几百毫秒。 你就很懵,每个用户第一次访问都会比较慢,比较卡么?所以你要是没玩儿过 es,或者就是自己玩玩儿 demo,被问到这个问题容易懵逼,显示出你对 es 确实玩儿的不怎么样? 面试题剖析 说实话,es 性能优化是没有什么银弹的,啥意思呢?就是不要期待着随手调一个参数,就可以万能的应对所有的性能慢的场景。也许有的场景是你换个参数,或者调整一下语法,就可以搞定,但是绝对不是所有场景都可以这样。 性能优化的杀手锏——filesystem cache 你往 es 里写的数据,实际上都写到磁盘文件里去了,查询的时候,操作系统会将磁盘文件里的数据自动缓存到 filesystem cache 里面去。 es 的搜索引擎严重依赖于底层的 filesystem cache,你如果给 filesystem cache 更多的内存,尽量让内存可以容纳所有的 idx segment file 索引数据文件,那么你搜索的时候就基本都是走内存的,性能会非常高。 性能差距究竟可以有多大?我们之前很多的测试和压测,如果走磁盘一般肯定上秒,搜索性能绝对是秒级别的,1秒、5秒、10秒。但如果是走 filesystem cache,是走纯内存的,那么一般来说性能比走磁盘要高一个数量级,基本上就是毫秒级的,从几毫秒到几百毫秒不等。 这里有个真实的案例。某个公司 es 节点有 3 台机器,每台机器看起来内存很多,64G,总内存就是 64 * 3 = 192G。每台机器给 es jvm heap 是 32G,那么剩下来留给 filesystem cache 的就是每台机器才 32G,总共集群里给 filesystem cache 的就是 32 * 3 = 96G 内存。而此时,整个磁盘上索引数据文件,在 3 台机器上一共占用了 1T 的磁盘容量,es 数据量是 1T,那么每台机器的数据量是 300G。这样性能好吗? filesystem cache 的内存才 100G,十分之一的数据可以放内存,其他的都在磁盘,然后你执行搜索操作,大部分操作都是走磁盘,性能肯定差。 归根结底,你要让 es 性能要好,最佳的情况下,就是你的机器的内存,至少可以容纳你的总数据量的一半。 根据我们自己的生产环境实践经验,最佳的情况下,是仅仅在 es 中就存少量的数据,就是你要用来搜索的那些索引,如果内存留给 filesystem cache 的是 100G,那么你就将索引数据控制在 100G 以内,这样的话,你的数据几乎全部走内存来搜索,性能非常之高,一般可以在 1 秒以内。 比如说你现在有一行数据。id,name,age .... 30 个字段。但是你现在搜索,只需要根据 id,name,age 三个字段来搜索。如果你傻乎乎往 es 里写入一行数据所有的字段,就会导致说 90% 的数据是不用来搜索的,结果硬是占据了 es 机器上的 filesystem cache 的空间,单条数据的数据量越大,就会导致 filesystem cahce 能缓存的数据就越少。其实,仅仅写入 es 中要用来检索的少数几个字段就可以了,比如说就写入 es id,name,age 三个字段,然后你可以把其他的字段数据存在 mysql/hbase 里,我们一般是建议用 es + hbase 这么一个架构。 hbase 的特点是适用于海量数据的在线存储,就是对 hbase 可以写入海量数据,但是不要做复杂的搜索,做很简单的一些根据 id 或者范围进行查询的这么一个操作就可以了。从 es 中根据 name 和 age 去搜索,拿到的结果可能就 20 个 doc id,然后根据 doc id 到 hbase 里去查询每个 doc id 对应的完整的数据,给查出来,再返回给前端。 写入 es 的数据最好小于等于,或者是略微大于 es 的 filesystem cache 的内存容量。然后你从 es 检索可能就花费 20ms,然后再根据 es 返回的 id 去 hbase 里查询,查 20 条数据,可能也就耗费个 30ms,可能你原来那么玩儿,1T 数据都放 es,会每次查询都是 5~10s,现在可能性能就会很高,每次查询就是 50ms。 数据预热 假如说,哪怕是你就按照上述的方案去做了,es 集群中每个机器写入的数据量还是超过了 filesystem cache 一倍,比如说你写入一台机器 60G 数据,结果 filesystem cache 就 30G,还是有 30G 数据留在了磁盘上。 其实可以做数据预热。 举个例子,拿微博来说,你可以把一些大V,平时看的人很多的数据,你自己提前后台搞个系统,每隔一会儿,自己的后台系统去搜索一下热数据,刷到 filesystem cache 里去,后面用户实际上来看这个热数据的时候,他们就是直接从内存里搜索了,很快。 或者是电商,你可以将平时查看最多的一些商品,比如说 iphone 8,热数据提前后台搞个程序,每隔 1 分钟自己主动访问一次,刷到 filesystem cache 里去。 对于那些你觉得比较热的、经常会有人访问的数据,最好做一个专门的缓存预热子系统,就是对热数据每隔一段时间,就提前访问一下,让数据进入 filesystem cache 里面去。这样下次别人访问的时候,性能一定会好很多。 冷热分离 es 可以做类似于 mysql 的水平拆分,就是说将大量的访问很少、频率很低的数据,单独写一个索引,然后将访问很频繁的热数据单独写一个索引。最好是将冷数据写入一个索引中,然后热数据写入另外一个索引中,这样可以确保热数据在被预热之后,尽量都让他们留在 filesystem os cache 里,别让冷数据给冲刷掉。 你看,假设你有 6 台机器,2 个索引,一个放冷数据,一个放热数据,每个索引 3 个 shard。3 台机器放热数据 index,另外 3 台机器放冷数据 index。然后这样的话,你大量的时间是在访问热数据 index,热数据可能就占总数据量的 10%,此时数据量很少,几乎全都保留在 filesystem cache 里面了,就可以确保热数据的访问性能是很高的。但是对于冷数据而言,是在别的 index 里的,跟热数据 index 不在相同的机器上,大家互相之间都没什么联系了。如果有人访问冷数据,可能大量数据是在磁盘上的,此时性能差点,就 10% 的人去访问冷数据,90% 的人在访问热数据,也无所谓了。 document 模型设计 对于 MySQL,我们经常有一些复杂的关联查询。在 es 里该怎么玩儿,es 里面的复杂的关联查询尽量别用,一旦用了性能一般都不太好。 最好是先在 Java 系统里就完成关联,将关联好的数据直接写入 es 中。搜索的时候,就不需要利用 es 的搜索语法来完成 join 之类的关联搜索了。 document 模型设计是非常重要的,很多操作,不要在搜索的时候才想去执行各种复杂的乱七八糟的操作。es 能支持的操作就那么多,不要考虑用 es 做一些它不好操作的事情。如果真的有那种操作,尽量在 document 模型设计的时候,写入的时候就完成。另外对于一些太复杂的操作,比如 join/nested/parent-child 搜索都要尽量避免,性能都很差的。 分页性能优化 es 的分页是较坑的,为啥呢?举个例子吧,假如你每页是 10 条数据,你现在要查询第 100 页,实际上是会把每个 shard 上存储的前 1000 条数据都查到一个协调节点上,如果你有个 5 个 shard,那么就有 5000 条数据,接着协调节点对这 5000 条数据进行一些合并、处理,再获取到最终第 100 页的 10 条数据。 分布式的,你要查第 100 页的 10 条数据,不可能说从 5 个 shard,每个 shard 就查 2 条数据,最后到协调节点合并成 10 条数据吧?你必须得从每个 shard 都查 1000 条数据过来,然后根据你的需求进行排序、筛选等等操作,最后再次分页,拿到里面第 100 页的数据。你翻页的时候,翻的越深,每个 shard 返回的数据就越多,而且协调节点处理的时间越长,非常坑爹。所以用 es 做分页的时候,你会发现越翻到后面,就越是慢。 我们之前也是遇到过这个问题,用 es 作分页,前几页就几十毫秒,翻到 10 页或者几十页的时候,基本上就要 5~10 秒才能查出来一页数据了。 有什么解决方案吗? 不允许深度分页(默认深度分页性能很差) 跟产品经理说,你系统不允许翻那么深的页,默认翻的越深,性能就越差。 类似于 app 里的推荐商品不断下拉出来一页一页的 类似于微博中,下拉刷微博,刷出来一页一页的,你可以用 scroll api,关于如何使用,自行上网搜索。 scroll 会一次性给你生成所有数据的一个快照,然后每次滑动向后翻页就是通过游标 scroll_id 移动,获取下一页下一页这样子,性能会比上面说的那种分页性能要高很多很多,基本上都是毫秒级的。 但是,唯一的一点就是,这个适合于那种类似微博下拉翻页的,不能随意跳到任何一页的场景。也就是说,你不能先进入第 10 页,然后去第 120 页,然后又回到第 58 页,不能随意乱跳页。所以现在很多产品,都是不允许你随意翻页的,app,也有一些网站,做的就是你只能往下拉,一页一页的翻。 初始化时必须指定 scroll 参数,告诉 es 要保存此次搜索的上下文多长时间。你需要确保用户不会持续不断翻页翻几个小时,否则可能因为超时而失败。 除了用 scroll api,你也可以用 search_after 来做,search_after 的思想是使用前一页的结果来帮助检索下一页的数据,显然,这种方式也不允许你随意翻页,你只能一页页往后翻。初始化时,需要使用一个唯一值的字段作为 sort 字段。 往期回顾: 【Java问答学堂】1期 为什么使用消息队列?消息队列有什么优点和缺点?Kafka、ActiveMQ、RabbitMQ、RocketMQ 都有什么区别,以及适合哪些场景? 【Java问答学堂】2期 如何保证消息队列的高可用? 【Java问答学堂】3期 如何保证消息不被重复消费?或者说,如何保证消息消费的幂等性? 【Java问答学堂】4期 如何保证消息的可靠性传输?(如何处理消息丢失的问题?) 【Java问答学堂】5期 如何保证消息的顺序性? 【Java问答学堂】6期 如何解决消息队列的延时以及过期失效问题? 【Java问答学堂】7期 如果让你写一个消息队列,该如何进行架构设计? 【Java问答学堂】8期 es 的分布式架构原理能说一下么(es 是如何实现分布式的啊)? 【Java问答学堂】9期 es 写入数据的工作原理是什么啊?es 查询数据的工作原理是什么啊?
剑曼红尘 2020-04-28 14:17:05 0 浏览量 回答数 0

问题

【Java问答学堂】10期 es 在数据量很大的情况下(数十亿级别)如何提高查询效率啊?

面试官心理分析 这个问题是肯定要问的,说白了,就是看你有没有实际干过 es,因为啥?其实 es 性能并没有你想象中那么好的。很多时候数据量大了,特别是有几亿条数据的时候...
剑曼红尘 2020-04-28 14:16:56 0 浏览量 回答数 1

问题

ES 在数据量很大的情况下(数十亿级别)如何提高查询效率啊?【Java问答学堂】28期

面试官心理分析 这个问题是肯定要问的,说白了,就是看你有没有实际干过 es,因为啥?其实 es 性能并没有你想象中那么好的。很多时候数据量大了,特别是有几亿条数据的时候...
剑曼红尘 2020-05-28 09:45:28 15 浏览量 回答数 1

回答

Re我还不太了解,如果问题提错了,还望见谅 随便一个电脑就可以达到,4核,8G,一个T的硬盘的级别啊, 我拿我本地的电脑当服务器不行么??? ------------------------- 回2楼ap2836i0b的帖子 您所说的公网独立IP是是什么意思呢?我电脑每次连上网都会有一个IP啊,这个算不算呢? 每个电脑都有自己的IP的啊 ------------------------- 回4楼top1314的帖子 懂就解释一下啊 ------------------------- Re我还不太了解,如果问题提错了,还望见谅 引用第7楼ap7980i2i于2012-09-25 12:26发表的  : 楼上比较通俗些!服务器最大问题是稳定,就是你开机365天不死机,不许重启仍然正常快速运行!而且不会断电,带宽独享IP独立! 自己的主机以上的都是没有的!特别是第一点,你一台PC机一个月不关机估计就卡的不行了~ 那请问,我们公司有买服务器,好像是DELL的,32核,512G内存。 而且从来不关机,机房还专门放了两个空调。 具备这个条件,还需要再去买阿里的服务器吗 ------------------------- Re回楼主zwwww133的帖子 引用第10楼ap1918w1h于2012-09-25 13:03发表的 回 楼主(zwwww133) 的帖子 : 你放家里不能备案,你没放多久电信就会通知你或者关闭你的网络。并且你家里无法保证365天*24小时的电力,隔三擦日的停电怎么办?你开次机,就得更换ip,你的域名就得重新解析。一次开机你全国最少有人30分钟不能访问你的网站 你好,我们这可以满足从来都不关机。 关于备案的问题,会花费很大吗? 是不是把网络搬到云上就不用备案了呢? ------------------------- ReRe我还不太了解,如果问题提错了,还望见谅 引用第14楼ginmini于2012-09-25 14:06发表的 Re我还不太了解,如果问题提错了,还望见谅 : 你都有服务器了还买阿里的服务器做啥 直接找个机房托管就是了 服务器谁都能配 但是机房和带宽还有服务不一定人人都有 不然还要这些IDC公司做啥都自己折腾好了 我有机房,有服务器。那我有没有必要因为自己不能申请网络,或者带宽之类的就来买服务器呢 ------------------------- Re回15楼zwwww133的帖子 引用第16楼sjaelien于2012-09-25 14:22发表的 回 15楼(zwwww133) 的帖子 : 你自己公司内部用IP访问可以,但别想绑定域名让外部访问了,因为用域名外部访问,必须要备案。 而你没有把机器托管到IDC的机房或者租用IDC的机器,管局是不会给你备案的。 至于你想不备案,绑定域名在你自己机房的服务器上让外部访问,就跟无证经营差不多吧,不查到还好,查到的话反正后果自己承担吧。 说的很清楚,谢谢 我没说不想备案,我的意思是,我自己有硬件了,没有必要为了备案再去租服务器。 我只需去找IDC托管我的机器,然后把备案手续办好就可以了。 对吧
zwwww133 2019-12-01 23:40:42 0 浏览量 回答数 0

回答

参考:https://www.iteblog.com/archives/2530.html分布式和去中心化(Distributed and Decentralized)Cassandra 是分布式的,这意味着它可以运行在多台机器上,并呈现给用户一个一致的整体。事实上,在一个节点上运行 Cassandra 是没啥用的,虽然我们可以这么做,并且这可以帮助我们了解它的工作机制,但是你很快就会意识到,需要多个节点才能真正了解 Cassandra 的强大之处。它的很多设计和实现让系统不仅可以在多个节点上运行,更为多机架部署进行了优化,甚至一个 Cassandra 集群可以运行在分散于世界各地的数据中心上。你可以放心地将数据写到集群的任意一台机器上,Cassandra 都会收到数据。对于很多存储系统(比如 MySQL, Bigtable),一旦你开始扩展它,就需要把某些节点设为主节点,其他则作为从节点。但 Cassandra 是无中心的,也就是说每个节点都是一样的。与主从结构相反,Cassandra 的协议是 P2P 的,并使用 gossip 来维护存活或死亡节点的列表。关于 gossip 可以参见《分布式原理:一文了解 Gossip 协议》。去中心化这一事实意味着 Cassandra 不会存在单点失效。Cassandra 集群中的所有节点的功能都完全一样, 所以不存在一个特殊的主机作为主节点来承担协调任务。有时这被叫做服务器对称(server symmetry)。综上所述,Cassandra 是分布式、无中心的,它不会有单点失效,所以支持高可用性。弹性可扩展(Elastic Scalability)可扩展性是指系统架构可以让系统提供更多的服务而不降低使用性能的特性。仅仅通过给现有的机器增加硬件的容量、内存进行垂直扩展,是最简单的达到可扩展性的手段。而水平扩展则需要增加更多机器,每台机器提供全部或部分数据,这样所有主机都不必负担全部业务请求。但软件自己需要有内部机制来保证集群中节点间的数据同步。弹性可扩展是指水平扩展的特性,意即你的集群可以不间断的情况下,方便扩展或缩减服务的规模。这样,你就不需要重新启动进程,不必修改应用的查询,也无需自己手工重新均衡数据分布。在 Cassandra 里,你只要加入新的计算机,Cassandra 就会自动地发现它并让它开始工作。高可用和容错(High Availability and Fault Tolerance)从一般架构的角度来看,系统的可用性是由满足请求的能力来量度的。但计算机可能会有各种各样的故障,从硬件器件故障到网络中断都有可能。如何计算机都可能发生这些情况,所以它们一般都有硬件冗余,并在发生故障事件的情况下会自动响应并进行热切换。对一个需要高可用的系统,它必须由多台联网的计算机构成,并且运行于其上的软件也必须能够在集群条件下工作,有设备能够识别节点故障,并将发生故障的中端的功能在剩余系统上进行恢复。Cassandra 就是高可用的。你可以在不中断系统的情况下替换故障节点,还可以把数据分布到多个数据中心里,从而提供更好的本地访问性能,并且在某一数据中心发生火灾、洪水等不可抗灾难的时候防止系统彻底瘫痪。可调节的一致性(Tuneable Consistency)2000年,加州大学伯克利分校的 Eric Brewer 在 ACM 分布式计算原理会议提出了著名的 CAP 定律。CAP 定律表明,对于任意给定的系统,只能在一致性(Consistency)、可用性(Availability)以及分区容错性(Partition Tolerance)之间选择两个。关于 CAP 定律的详细介绍可参见《分布式系统一致性问题、CAP定律以及 BASE 理论》以及《一篇文章搞清楚什么是分布式系统 CAP 定理》。所以 Cassandra 在设计的时候也不得不考虑这些问题,因为分区容错性这个是每个分布式系统必须考虑的,所以只能在一致性和可用性之间做选择,而 Cassandra 的应用场景更多的是为了满足可用性,所以我们只能牺牲一致性了。但是根据 BASE 理论,我们其实可以通过牺牲强一致性获得可用性。Cassandra 提供了可调节的一致性,允许我们选定需要的一致性水平与可用性水平,在二者间找到平衡点。因为客户端可以控制在更新到达多少个副本之前,必须阻塞系统。这是通过设置副本因子(replication factor)来调节与之相对的一致性级别。通过副本因子(replication factor),你可以决定准备牺牲多少性能来换取一致性。 副本因子是你要求更新在集群中传播到的节点数(注意,更新包括所有增加、删除和更新操作)。客户端每次操作还必须设置一个一致性级别(consistency level)参数,这个参数决定了多少个副本写入成功才可以认定写操作是成功的,或者读取过程中读到多少个副本正确就可以认定是读成功的。这里 Cassandra 把决定一致性程度的权利留给了客户自己。所以,如果需要的话,你可以设定一致性级别和副本因子相等,从而达到一个较高的一致性水平,不过这样就必须付出同步阻塞操作的代价,只有所有节点都被更新完成才能成功返回一次更新。而实际上,Cassandra 一般都不会这么来用,原因显而易见(这样就丧失了可用性目标,影响性能,而且这不是你选择 Cassandra 的初衷)。而如果一个客户端设置一致性级别低于副本因子的话,即使有节点宕机了,仍然可以写成功。总体来说,Cassandra 更倾向于 CP,虽然它也可以通过调节一致性水平达到 AP;但是不推荐你这么设置。面向行(Row-Oriented)Cassandra 经常被看做是一种面向列(Column-Oriented)的数据库,这也并不算错。它的数据结构不是关系型的,而是一个多维稀疏哈希表。稀疏(Sparse)意味着任何一行都可能会有一列或者几列,但每行都不一定(像关系模型那样)和其他行有一样的列。每行都有一个唯一的键值,用于进行数据访问。所以,更确切地说,应该把 Cassandra 看做是一个有索引的、面向行的存储系统。Cassandra 的数据存储结构基本可以看做是一个多维哈希表。这意味着你不必事先精确地决定你的具体数据结构或是你的记录应该包含哪些具体字段。这特别适合处于草创阶段,还在不断增加或修改服务特性的应用。而且也特别适合应用在敏捷开发项目中,不必进行长达数月的预先分析。对于使用 Cassandra 的应用,如果业务发生变化了,只需要在运行中增加或删除某些字段就行了,不会造成服务中断。当然, 这不是说你不需要考虑数据。相反,Cassandra 需要你换个角度看数据。在 RDBMS 里, 你得首先设计一个完整的数据模型, 然后考虑查询方式, 而在 Cassandra 里,你可以首先思考如何查询数据,然后提供这些数据就可以了。灵活的模式(Flexible Schema)Cassandra 的早期版本支持无模式(schema-free)数据模型,可以动态定义新的列。 无模式数据库(如 Bigtable 和 MongoDB)在访问大量数据时具有高度可扩展性和高性能的优势。 无模式数据库的主要缺点是难以确定数据的含义和格式,这限制了执行复杂查询的能力。为了解决这些问题,Cassandra 引入了 Cassandra Query Language(CQL),它提供了一种通过类似于结构化查询语言(SQL)的语法来定义模式。 最初,CQL 是作为 Cassandra 的另一个接口,并且基于 Apache Thrift 项目提供无模式的接口。 在这个过渡阶段,术语“模式可选”(Schema-optional)用于描述数据模型,我们可以使用 CQL 的模式来定义。并且可以通过 Thrift API 实现动态扩展以此添加新的列。 在此期间,基础数据存储模型是基于 Bigtable 的。从 3.0 版本开始,不推荐使用基于 Thrift API 的动态列创建的 API,并且 Cassandra 底层存储已经重新实现了,以更紧密地与 CQL 保持一致。 Cassandra 并没有完全限制动态扩展架构的能力,但它的工作方式却截然不同。 CQL 集合(比如 list、set、尤其是 map)提供了在无结构化的格式里面添加内容的能力,从而能扩展现有的模式。CQL 还提供了改变列的类型的能力,以支持 JSON 格式的文本的存储。因此,描述 Cassandra 当前状态的最佳方式可能是它支持灵活的模式。高性能(High Performance)Cassandra 在设计之初就特别考虑了要充分利用多处理器和多核计算机的性能,并考虑在分布于多个数据中心的大量这类服务器上运行。它可以一致而且无缝地扩展到数百台机器,存储数 TB 的数据。Cassandra 已经显示出了高负载下的良好表现,在一个非常普通的工作站上,Cassandra 也可以提供非常高的写吞吐量。而如果你增加更多的服务器,你还可以继续保持 Cassandra 所有的特性而无需牺牲性能。
封神 2019-12-02 02:00:50 0 浏览量 回答数 0

回答

格式太坑了。。。。对于体育老师教语文的我来说只能做到这里了 快来阿里云官方群体验小机器人吧 阿里云•云上梦工厂 99206500 -------------------------    压力好大 ------------------------- 回 6楼(qiujin2012) 的帖子 终于算写出来了 ------------------------- 回 9楼(boboan) 的帖子 恩,有空了在补充一下,论坛排版弄一下午 ------------------------- 回 11楼(皇族) 的帖子 恩是的那是看到,阿里吧源码放进去了。我想如果不是初体验,肯定是对sdk有一些不一样的需求,那时候可能就需要修改源码了 ------------------------- 回 9楼(boboan) 的帖子 已经补充了目前想到的场景,也许大家有更多需求 ------------------------- 回 15楼(sdh) 的帖子 恩,猜到了。不过感觉还是需要统一啊,要不然这个想在控制台做一个消息发送,就比较扯淡了。如果通了之后,我完全可以再控制太发送我的公告,提醒了 ------------------------- 回 17楼(bailimei) 的帖子 求投票 ------------------------- 回 16楼(婺黧) 的帖子 可以去官方群体验一下 -------------------------        今天再看看还有啥补充的不 ------------------------- 我要开始回帖总云币了。现在云币又多了一个用途你们知道么 ------------------------- 云币拿走 ------------------------- 红色的字体模式 ------------------------- 红色的字体模式 ------------------------- 劫富济贫 ------------------------- 机器人聊天功能实现了 ------------------------- 使用的opensearch ------------------------- 开房搜索的功能已经加去机器人 ------------------------- 小手一抖,云币到手 ------------------------- 回 36楼(51干警网) 的帖子      你貌似没有在群里啊。可以去玩玩 ------------------------- 劫富济贫 ------------------------- 你是好人 ------------------------- 你是我偶像 ------------------------- 我做了一个艰难的决定 加点分给你
啊里新人 2019-12-02 00:39:29 0 浏览量 回答数 0

回答

一、检查  这里的检查并不是检查项目配置,而是检查IIS的配置。我发布的网站是要用framework 4.0才可以正常运行的,所以,我的项目运行的.net framework版本是4.0,这个是没什么问题的。这里需要检查的是《应用程序池》里是否存在framework 4.0的两个版本,这两个版本一般会同时存在(默认情况下,应用程序池里会有三项,两项framework 2.0和一个默认存在的web啥啥APP的一个)。若存在framework 4.0的两个版本,那么下文就随便看看,若不存在,则仔细看~~~ 二、framework 4.0的两个版本不存在  这里可能是服务器的framework 4.0只安装了部分,没有安装完全,所以需要对framework 4.0进行重装 1.win+r cmd打开命令提示符操作界面 2.输入cd C:\Windows\Microsoft.NET\Framework\v4.0.30319 转换操作位置(自己对应好位置,每台机器可能不一样)  如果没有v4.0.30319目录,则需要下载framework4.0的安装包,看下方链接  链接:https://pan.baidu.com/s/1dcQike 密码:t9jb 3.输入 aspnet_regiis.exe -i 启动安装 4.安装完毕后,IIS的应用程序池则会出现framework4.0的两个版本 三、针对于IIS的服务,添加ASP和CGI的安装 这两个不知道有什么用,但是我装了,嘿嘿~~~~ 貌似和权限配置有关 四、权限开启  IIS根目录,找到如图所示 将限制改为允许 到此为止,所有配置已完毕,请重新尝试登陆!!!
KaFei 2020-05-26 15:09:47 0 浏览量 回答数 0

回答

1、一般来说是带宽更重要,当然包括你选择的服务器与目标服务器之前的连接速度,因为爬虫程序本身没有多复杂,对于现在的CPU来说没有一点压力,单个页面的分析处理最多 50ms 2、一台两台来说的话,就你当前的应用来说,本身上对内存或CPU要求不算高,那么你要比较的就是价格了,或者你感觉有两台机器更安心? 3、带宽要看你的程序在单机特定配置下,什么情况平均 CPU 大于 50% (这说明网络与数据处理到达一定的平衡)那么这时候的下载的速度就是一个带宽的参考。 4、这个没法回答,有太多因素,主要还是先做一个平衡的选择之后,按需要做加法的。 ######我新的回复在下面###### 引用来自“夜狼”的评论 1、一般来说是带宽更重要,当然包括你选择的服务器与目标服务器之前的连接速度,因为 爬虫程序本身没有多复杂,对于现在的CPU来说没有一点压力,单个页面的分析处理最多 50ms 2、一台两台来说的话,就你当前的应用来说,本身上对内存或CPU要求不算高,那么你要比较的就是价格了,或者你感觉有两台机器更安心? 3、带宽要看你的程序在单机特定配置下,什么情况平均 CPU 大于 50% (这说明网络与数据处理到达一定的平衡)那么这时候的下载的速度就是一个带宽的参考。 4、这个没法回答,有太多因素,主要还是先做一个平衡的选择之后,按需要做加法的。 感谢解答。  1.确实单个页面分析耗时还好,而且爬虫里爬取下载和分析是异步的。  2.价格刚好是一样的。一台好2核4G的刚好是一台1核2G的两倍。所以我在想是不是多台机子多点带宽  3.我没测CPU,但感觉整个机子就跑个爬虫,CPU用不了多少吧。但是有个问题就是,我刚才在阿里云后台查了下那三天的网络吞吐量记录(按小时结算的)。 发现那个4核32G、20M峰值的服务器吞吐量并没有比另外两个多多少,每小时8位数的BYTE,偶尔9位数;另外两台一台平均一小时7~8位数BTYE;还有一台平均一小时8位数BYTE,偶尔9位数。 按1Mbps算,1小时应该“128KB/s*3600*1024=471859200 BYTE”,显然没达到,不知道为啥。能解答下吗?   4.好吧。。。还是谢谢了######美国服务器能用不?直接上美国高配置的服务器,带宽大,IP多。
kun坤 2020-06-04 11:06:33 0 浏览量 回答数 0

问题

如何自己设计一个类似 Dubbo 的 RPC 框架?【Java问答学堂】54期

面试题 如何自己设计一个类似 Dubbo 的 RPC 框架? 面试官心理分析 说实话,就这问题,其实就跟问你如何自己设计一个 MQ 一样的道理,就考两个: 你有没...
剑曼红尘 2020-07-09 10:30:28 30 浏览量 回答数 1

问题

组建MySQL集群的几种方案,求介绍或推荐或科普或点醒:报错

LVS+Keepalived+MySQL(有脑裂问题?但似乎很多人推荐这个) DRBD+Heartbeat+MySQL(有一台机器空余?...
kun坤 2020-06-06 00:29:10 0 浏览量 回答数 1

回答

从比特币出现到现在,我们一直为比特币的理念--去中心化而着迷不已,但是我们真的能做到去中心化吗?这是否只是一个乌托邦? 首先,人类社会是多中心化的,即使全世界所有的人被随机打乱,还是很快形成一个个国家,社会和利益团体。为什么?因为这样你才能有更大的话语权,你才能更好的保证自己的利益。一方面,大的利益机构之间不断抱团,另一方面,小的利益机构的生存空间不断被压缩,乃至消亡。所以有位人生导师和专员说,未来社会可能是自治的,专员不这么认为,至少我认为在自己有生之前,应该只能看到人治的社会。 那区块链呢?我们无法在现实世界完成的理想,能否在区块链中得到实现?专员对此表示悲观状态。 以比特币为例,中本聪利用PoW算法并且在区块链尝试,成功的做到了一个小目标--人人平等,所有人都要遵循比特币的挖矿协议,没有人能够例外。但是有一件事他没办法阻止--上天对每个人的给与是不同的。有一些人的机器好,有一些人的机器差,挖出来的比特币数量完全不一样,而前者可以有更多的前去买更好的机器,长此以往,贫富差距越来越大。 这个时候弱者能怎么办? 要么退出这个游戏,要么抱团,依附强者。所以,一个个矿池出现,开始以一个共同体进行发声,和其他强者进行对话,竞争。所以你看,比特币虽然号称是去中心化的,然而现在早已经是多中心化的,很多大的矿池都垄断着10%以上的算力,而专员前段时间还听到一个新闻--比特大陆旗下三家子公司的算力总和超过了51%.也就是说,如果他们愿意,他们可以操纵比特币网络的走向,获得至少99%的收益。 以太坊和EOS 以太坊也是一样,也是多中心化的。EOS人家更直接,一开始上来就说,我要搞21个超级节点,反正都是多中心的,我就直接摆在明面上,我就那么多中心节点,你们自己去争,能争到都是你们的。 专员上面说了那么多,只是想表达一个观点--人类社会是多中心的,区块链也是。 那区块链就做不到完全去中心化吗? 专员倒觉得有机会,但是条件比较苛刻。 首先,完全的去中心化意味着无人监管。 无人监管看起来很理想,但是实际上暗潮涌动,你不能假设所有人都是好人,事实上所有人都可能是坏人。比特币一开始饱受抨击,为啥,因为有很多大毒枭利用比特币进行非法的操作,比如洗qian.这就是技术的阴暗面,你可以用技术造福人类,就有人会用技术来完成自己的私欲。当然,技术本身是无罪的,有罪的是利用技术犯罪的那些人,但是你无法保证所有人都不去踩这条红线。国家作为治理犯罪、维护平衡的主体,必须要对上述这些行为进行监管,否则会出乱子。 其次,完全的去中心化意味着投机成本降低,投机者的行为更不好预测。 还是以比特币为例,去年一大堆团队搞IFO,进行比特币分叉,忽悠散户去买IFO的代币。糖果嘛,反正是不要钱的,随便砸呗,总会有人接盘的。还是那句话,所有人都赚钱了,钱从哪里来? 第三,完全的去中心化意味着开发进度缓慢。 以以太坊为例,以太坊作为一个自发的社区,其对社区成员没有一个约束力,如果你是社区开发者,项目开发到一半忽然发现自己手里的代币已经让你财务自由了,还写毛线代码,所以以太坊的PoS、分片搞了那么久才出来,也是这个原因。 而EOS前期通过Block.one这家公司进行宣传、开发的运作,以BM为主要负责人进行推进,才在短时间内迅速成为有机会挑战ETH的产品。如果使用纯社区的形式,估计这个进程要推迟2-3年。 第四,有人的地方就有江湖。 对于利益无关方来说,当然是希望越公开透明,越去中心化越好,但是对于有利益冲突方而言,当然尽量希望保证自己的利益。打个比如,如果这个时候BTC修改共识算法,弱化了矿池的能力,说不准会引起大的矿场场主立刻硬分叉,到时候主链变侧链,侧链变主链,事实上,这并不是没有可能的一件事。 而EOS就直接推动了这一进程的发展,一开始就划了21个位置,你们自己争好了,最后能成为超级节点的机构一定不弱,即使弱也不会跟其他节点差很多。
问问小秘 2019-12-02 03:07:13 0 浏览量 回答数 0

回答

作为一个所谓的计算机科班出身的人来说,特别难为情的是自己的计算机基础很差,比如计算机网络当年一度差点挂掉,多亏当时的老师手下留情,给我一个刚及格的分数,但也因为这门课,造成我在之后申请奖学金的时候与其擦身而过。 我觉得我可以作为一个反例放在阳光下暴晒。熟悉我的读者可能知道我大学是搞 ACM 出身,当年我所有的精力都放在上面,每天沉迷的是学习各种算法,各种姿势切题,以至于我逃了大多数的课,就算去上课的时候也在搞不相关的东西。 当时一方面是环境使然,另一方面是像计算机网络这种课听起来太枯燥。每次考试靠突击,成绩还不错,也不会挂科,就这么随它去了。虽然听过很多基础很重要的说法,有时候会想想是不是要好好补一下基础的东西,还是因为各种各样的原因搁浅了... 直到考研复试,到面试那一步,除了算法方面,面对各种计算机网络\操作系统\数据库的问题,我感觉有点无力招架,只觉得自己当时的脑子充满浆糊,没有思考,有的只是临时死记硬背的东西。直到结束准备离开的时候,居中的老教授含蓄的建议,我才算真正有了要好好再回头去学的意识。 时间越长好像越明白这些基础知识和原理的重要性,这样说起来简单,但是其中的枯燥就让很多摩拳擦掌的同学折戟沉沙,都说兴趣最重要,怎么提气这个兴趣,最近我在逛 b 站的时候偶然发现了这么一个课程,通过图文并茂生动形象的介绍计算机的基础知识,看了十几集,觉得非常的棒,特地把这个《计算机科学速成课》推荐给大家。 Computer Science 是 Crash Course 下的系列课程之一,这个频道下还有很多其它优秀的课程。 Crash Course 链接 这些其它优秀课程范围很广,包括大历史、统计学、生物学、社会学、哲学、物理等等等等几十个学科系列,英语好的可以直接看英文的,英语不好的同学也不怕,可以去万能的 b 站,直接搜"10分钟速成课" 或者直接搜 b 站阿婆主“白花恋诗·彩”,大佬持续不断的翻译了好多,Orz... 当然上面这些不是本次的重点,不做过多说明,感兴趣的可以多关注一下。回到《计算机科学速成课》,为了表示尊重我把英文版的链接先放在下面: Computer Science 网址 这门《Computer Science》一共 40 集,都是英文的可能对英语不好的同学来说难度太大,但是不要慌,国内一些爱好者早已经把它们翻译成中文,也就是我在开头说的《计算机科学速成课》。这门课在 b 站上收获了 6.1 w+ 收藏,1.3w+ 点赞,1.3w+ 投币,在 GitHub 上同样也有 3.9k+ 的 star,妥妥的超级受欢迎的课! 这门 40 集的课真的包含了超多的基础知识: 1 - 早期的计算 - Early Computing 2 - 电子计算 - Electronic Computing 3 - 布尔逻辑与逻辑电路 - Boolean Logic & Logic Gates 4 - 二进制 - Representing Numbers and Letters with Binary 5 - 算术逻辑单元 - How Computers Calculate - the ALU 6 - 寄存器 & 内存 - Registers and RAM 7 - 中央处理器 - The Central Processing Unit(CPU) 8 - 指令和程序 - Instructions & Programs 9 - 高级 CPU 设计 - Advanced CPU Designs10 - 编程史话 - Early Programming 11 - 编程语言 - The First Programming Languages 12 - 编程原理:语句和函数 - Programming Basics: Statements & Functions 13 - 算法初步 - Intro to Algorithms 14 - 数据结构 - Data Structures 15 - 阿兰·图灵 - Alan Turing 16 - 软件工程 - Software Engineering 17 - 集成电路、摩尔定律 - Integrated Circuits & Moore’s Law 18 - 操作系统 - Operating Systems 19 - 内存 & 储存介质 - Memory & Storage 20 - 文件系统 - Files & File Systems 21 - 压缩 - Compression 22 - 命令行界面 - Keyboards & Command Line Interfaces 23 - 屏幕 & 2D 图形显示 - Screens & 2D Graphics 24 - 冷战和消费主义 - The Cold War and Consumerism 25 - 个人计算机革命 - The Personal Computer Revolution 26 - 图形用户界面 - Graphical User Interfaces 27 - 3D 图形 - 3D Graphics 28 - 计算机网络 - Computer Networks 29 - 互联网 - The Internet 30 - 万维网 - The World Wide Web 31 - 网络安全 - Cybersecurity 32 - 黑客与攻击 - Hackers & Cyber Attacks 33 - 加密 - Cryptography 34 - 机器学习与人工智能 - Machine Learning & Artificial Intelligence 35 - 计算机视觉 - Computer Vision 36 - 自然语言处理 - Natural Language Processing 37 - 机器人 - Robots 38 - 计算机中的心理学 - Psychology of Computing 39 - 教育型科技 - Educational Technology 40 - (完结) 奇点,天网,计算机的未来 - The Singularity, Skynet, and the Future of Computing 可以看到真的是应有尽有,像计算机的早期历史、编程的发展史,到二进制、指令和程序,到算法入门、数据结构,甚至是计算机安全、黑客、加密、机器学习 & 人工智能、计算机视觉、自然语言处理、机器人等等等等都有涉及。再夸奖的话我已经说不出来了,只能 Orzzzzzzzzzzzzzzzzz 了... 到这里你以为完了么?不!这怎么能够!译者们还贴心的在每一集的开头放上了片头总结,让你刚开始就能知道这一集讲了啥,哪个时间点讲了哪些知识点,真的是炒鸡贴心! 如此良心的一门课,如此贴心的翻译团队,真的强烈建议大家一定要好好看,沉下心来,认认真真的每天学一点,你会发现真的很不一样,有时候改变和成长就是这么潜移默化的进行。 当然这么好看的课当然希望大家能够多多转发,在看支持,让更多的朋友能够看到,大家一起学习一起进步! 今天的分享就到这,我要赶紧去看视频啦...
剑曼红尘 2020-04-16 18:15:52 0 浏览量 回答数 0

回答

楼主,看了你的问题就我知道的回答下你吧: 首先,我们我们服务器一直都是2个盘或者2个以上,应该没有出现过1个盘的,除了当时经济A出来的时候很短暂的出现过一个盘的情况,但是之后调整为2个盘以上了。 你的问题回答下你吧 1,咱们的centos系统现在默认是没有lamp lnmp环境的,一般都是用户自己去做,因为考虑到每个用户的需求不一样,有的用户还不需要我们配置的环境,要求卸载,所以装了也头疼,不装也有用户需要,但是你可以参考官方发的教程: http://bbs.aliyun.com/read.php?tid=3337,这个教程是适合centos的,大家可以用下看,如果说有问题可以反馈给官方,我们再调整 2,不知道你说的军哥的lnmp环境啥样的,不过可以试试,没试过的情况下谁都不知道行不行 3,看你安装了什么lnmp环境,网站根目录是可以调整的,并不是你安装后就固定下来的,就像windows的iis一样,手工调整下即可,这个算不上大问题。 ------------------------- 回 3楼(xpress) 的帖子 xpress 亲,“echo '/dev/xvdb1  /home/wwwroot/ ext3    defaults    0  0' >> /etc/fstab这条是分区表信息哦,可不能随意修改的,随意修改可能会导致机器重启启不来的 其实这条命令的含义是将数据盘挂载到/home/wwwroot/目录下的,可不是你想将哪个目录指向数据盘就用这条命令的,想知道详细的就百度下吧。不过楼主刚接触几linux看来上手很快哦,对问题都有自己的理解哈,加油哦。
cloud_en 2019-12-02 03:14:53 0 浏览量 回答数 0

问题

阿里云校招对应届生基本要求是啥?

Q:阿里云校招对应届生基本要求是啥? A: 兮林:我说几点NLP方向算法岗位同学校招要求以及成长建议。 第一,基础知识非常重要。一些国内外经典教材中有很多自然语言的知...
琛琛轴子 2020-09-06 21:15:09 11 浏览量 回答数 0

回答

1.产品2.UI3.CSS4.JS5.后端(Java/php/python)6.DBA(mysql/oracle)7.运维(OP) 8.测试(QA)9.算法(分类/聚类/关系抽取/实体识别)10.搜索(Lucene/Solr/elasticSearch)11.大数据工程师(Hadoop)12.Android13.IOS14.运营 一.产品1 工作内容:了解用户需求,做竞品调研,画产品原型,写产品文档,讲解产品需求,测试产品Bug,收集用户反馈,苦练金刚罩以防止程序员拿刀砍。2 需要技能:PPT,Word, Axure,XP,MVP,行业知识,沟通。 二. UI1 工作内容:收到产品原型,给原型上色,偶尔会自作主张调整下原型的位置,出不同的风格给老板和客户选,然后听他们的意见给出一个自己极不喜欢的风格,最好给Android,IOS或者是CSS做好标注,还有的需要直接帮他们切好图,最后要练出来象素眼,看看这些不靠谱的程序员们有没有上错色或者是有偏差。2 需要技能:PS,Illustrator,Sketch,耐性,找素材。 三. CSS1 工作内容:产品设计好原型,UI做出来了效果图,剩下的就是CSS工程师用代码把静态文件写出来的。 2 需要技能:环境【IDE(WEBStorm,Sublime,EditPlus),源码管理(SVN/Git) ,WEB服务器(nginx)】基础【PS,域名,Html,Html5,CSS,CSS3】扩展【自适应,响应式,Bootstrap,Less,Flex】 四 .JS 1 工作内容:JS工程师其实分成两类,在之前讲CSS的时候已经提到过,一个是套页面的,一个是前后端分离的。对这两个概念还是分不太清的,可以回过头去看CSS的部分。 2 需要技能:环境【IDE(WEBStorm,Sublime,EditPlus),源码管理(SVN/Git) ,WEB服务器(nginx)】基础【Http,REST,跨域,语法,组件,F12,Json,Websocket】框架【JQuery,AngularJS,Bower,RequireJS,GruntJS,ReactJS,PhoneGap】业务【金融,教育,医疗,汽车,房产等等等等各种行业】 五 .后端(Java/python/go) 1 工作内容:大部分的后端工程师都停留在功能实现的层面上。这是现在国内二流或者是三流的公司的现状,甚至是在某些一流的公司。很多时候都是架构师出了架构设计,更多的外包公司根本就是有DBA来做设计,然后后端程序员从JS到CSS到Java全写,完全就是一个通道,所有的复杂逻辑全部交给DB来做,这也是几年前DBA很受重视的原因。 2 需要技能:环境【IDE(Idea/Eclipse,Maven,jenkins,Nexus,Jetty,Shell,Host),源码管理(SVN/Git) ,WEB服务器(nginx,tomcat,Resin)】基础【Http,REST,跨域,语法,Websocket,数据库,计算机网络,操作系统,算法,数据结构】框架【Spring,AOP,Quartz,Json TagLib,tiles,activeMQ,memcache,redis,mybatis,log4j,junit等等等等等】业务【金融,教育,医疗,汽车,房产等等等等各种行业】。 六 .DBA  1 工作内容:如果你做了一个DBA,基本上会遇到两种情况。一种是你的后端工程师懂架构,知道怎么合便使用DB,知道如何防止穿透DB,那么恭喜你,你只是需要当一个DB技术兜底的顾问就好,基本上没什么活可以做,做个监控,写个统计就好了。你可以花时间在MongoDB了,Hadoop了这些,随便玩玩儿。再按照我之前说的,做好数据备份。如果需求变动比较大,往往会牵涉到一些线上数据的更改,那么就在发布的时候安静的等着,等着他们出问题。。。。如果不出问题就可以回家睡觉了。 2 需要技能:环境【Linux,Mysql,Oracle,MongoDB,Hadoop】工具【各种DB的版本,工具,备份,日志等】。 七. 运维  1 工作内容:运维的工作大概分成几个部分,我对于修真院学习运维的少年们都这么说,大概是:A。基础环境的搭建和常用软件的安装和配置(兼网管的还有各种程控机),常用软件指的是SVN,Git,邮箱这种,更细节的内容请参考修真院对于运维职业的介绍。B。日常的发布和维护,如刚刚讲到的一样,测试环境和线上环境的发布和记录,原则上,对线上所有的变更都应该有记录。C。数据的备份和服务的监控&安全配置。各种数据,都要做好备份和回滚的手段,提前准备好各种紧急预案,服务的监制要做好。安全始终都是不怎么被重点考虑的问题,因为这个东西无底洞,你永远不知道做到什么程度算是比较安全了,所以大多数都是看着情况来。D。运维工具的编写。这一点在大的云服务器商里格外常见,大公司也是一样的。E。Hadoop相关的大数据体系架构的运维,确实有公司在用几百台机器做Hadoop,所以虽然不常见,我还是列出来吧。 2 需要技能:环境【Linux,Mysql,Oracle,MongoDB,Hadoop,nginx,apache,F5,lvs,vpn,iptable,svn,git,memcache,redis】工具【linux 常用工具,Mysql常用工具,Jenkins,zabbix,nagios】自动化运维【openstack,docker,ansible】语言【shell,python】 八 .QA  1 工作内容:QA需要了解需求,很多公司会要求QA写测试用例,我觉得是扯淡。完全是在浪费时间。通常开发三周,QA测试的时间只有一周到一周半。还有关于提前写测试用例的,都不靠谱。 2 需要技能:流程【Bug修复流程,版本发布流程】工具【禅道,BugZilla,Jira,Excel表格来统计Bug数,自动化测试】性格【严谨,耐心】 九. 算法工程师  1 工作内容:算法工程师的工作内容,大部分时间都是在调优。就是调各种参数和语料,寻找特征,验证结果,排除噪音。也会和Hadoop神马的打一些交道,mahout神马的,我那个时候还在用JavaML。现在并不知道有没有什么更好用的工具了。有的时候还要自己去标注语料---当然大部分人都不爱做这个事儿,会找漂亮的小编辑去做。2 需要技能:基础【机器学习,数据挖掘】工具【Mahout,JavaML等其他的算法工具集】 十. 搜索工程师  1 工作内容: 所以搜索现在其实分成两种。一种是传统的搜索。包括:A。抓取 B。解析C。去重D。处理E。索引F。查询另一种是做为架构的搜索。并不包括之前的抓取解析去重,只有索引和查询。A。索引B。查询 2 需要技能:环境【Linux】框架【Luence,Slor,ElasticSearch,Cassandra,MongoDB】算法【倒排索引,权重计算公式,去重算法,Facet搜索的原理,高亮算法,实时索引】 十一. 大数据工程师  1 工作内容:工作内容在前期会比较多一些,基础搭建还是一个挺讲究的事儿。系统搭建好之后呢,大概是两种,一种是向大数据部门提交任务,跑一圈给你。一种是持续的文本信息处理中增加新的处理模块,像我之前说的增加个分类啦,实体识别神马的。好吧第一种其实我也不记得是从哪得来的印象了,我是没有见到过的。架构稳定了之后,大数据部门的工作并不太多,常常会和算法工程师混到一起来。其他的应该就是大数据周边产品的开发工作了。再去解决一些Bug什么的。2 需要技能:环境【Linux】框架【Hadoo,spark,storm,pig,hive,mahout,zookeeper 】算法【mapreduce,hdfs,zookeeper】。 十二. Android工程师  1 工作内容:Android工程师的日常就是听产品经理讲需求,跟后端定接口,听QA反馈哪款机器不兼容,闹着申请各种测试机,以及悲催的用Android做IOS的控件。 2 需要技能:环境【Android Studio,Maven,Gradle】基础【数据结构,Java,计算机网络】组件【IM,地图,支付,拍照,视频,音频,统计,分享,手势密码】 十三. IOS工程师  1 工作内容:IOS工程师的工作内容真的挺简单的,听需求,定接口。做个适配,抛弃一下iphone4。还有啥。。马丹,以我为数不多的IOS知识来讲,真的不知道还有啥了。我知道的比较复杂的系统也是各种背景高斯模糊,各种渐变,各种图片滤镜处理,其他并没有什么。支付,地图,统计这些东西。 嗯。2 需要技能:环境【Xcode】基础【数据结构,Object,计算机网络】组件【IM,地图,支付,拍照,视频,音频,统计,分享,手势密码】
行者武松 2019-12-02 01:21:45 0 浏览量 回答数 0

问题

讨论PostgreSQL 和其他数据库的差异在哪里

PostgreSQL 近几年在全球的人气不断攀升,每年发布的版本都体现了社区的活力,9.6作为里程碑式的作品,更加有非常多的新特性加入。 《众里寻它千百度:周正中(...
云栖技术 2019-12-01 21:56:16 2721 浏览量 回答数 1

问题

阿里云服务器linux系统远程登录和文件管理的工具

很多人不知道怎么使用阿里云服务器,也不知道用什么工具,下面给大家推荐几个linux系统下的工具: 1.远程ssh登录: 远程登录linux,可以用putty,...
xzhuji 2019-12-01 21:32:43 6540 浏览量 回答数 0

回答

Re河北10M的电信宽带,买了青岛的阿里云主机,速度确实不太给力啊 小猪猪版主,我这PING 163 啦新浪啦。一些大网站PING值都很低,我只能通过这个PING值判断机器,还有,我现在已经买了1年的青岛站点的服务器了,一年的,差不多够1个月了。 ------------------------- Re河北10M的电信宽带,买了青岛的阿里云主机,速度确实不太给力啊    163的PING值 ------------------------- Re河北10M的电信宽带,买了青岛的阿里云主机,速度确实不太给力啊 我们本地的一个网站PING值也是20.http://www.yuxian.net   为什么他们的PING值就低啊。 ------------------------- Re河北10M的电信宽带,买了青岛的阿里云主机,速度确实不太给力啊 PING淘宝17秒左右。。。更快,为啥我买的阿里云和淘宝一样的多线,就这个样子啊。 ------------------------- Re河北10M的电信宽带,买了青岛的阿里云主机,速度确实不太给力啊 淘宝的线路是阿里云的对吧。至少淘宝是什么质量阿里云也应该一样对吧。 ------------------------- Re河北10M的电信宽带,买了青岛的阿里云主机,速度确实不太给力啊 淘宝PING值17,我的IP PING值69.版主认为一样的线路不一样的速度这个对不? ------------------------- Re河北10M的电信宽带,买了青岛的阿里云主机,速度确实不太给力啊 一样的测试环境啊,为什么非要用联通,不是多线吗? ------------------------- Re河北10M的电信宽带,买了青岛的阿里云主机,速度确实不太给力啊 我的网站都没上线,现在就运行了一个Linux系统,在没有如何负载下测试的结果。
俺来学文化 2019-12-02 03:13:59 0 浏览量 回答数 0

回答

没人去关心1700年计算机是啥情况。###### 引用来自“张子游”的答案 没人去关心1700年计算机是啥情况。 1700年有计算机? ######是400倍数是闰年。或者,是4的倍数但不是100的倍数,也是闰年。懂???###### 。即规定公历年份是整百数的,必须是400的倍数才是闰年,不是400的倍数的就是平年。 这个说法是有问题的,但下面的算法你没有看吗?算法是对的 ######我看了,和说的一样。我认为不对。###### 楼主断章取义的功夫了得,原文是这样是: 从公元前46年,到16世纪,一共累计多出了10天。为此,当时的教皇格雷果里十三世,将1582年10月5日人为规定为10月15日。并开始了新闰年规 定。即规定公历年份是整百数的,必须是400的倍数才是闰年,不是400的倍数的就是平年。比如,1700年、1800年和1900年为平年,2000年 为闰年。此后,平均每年长度为365.2425天,约4年出现1天的偏差。按照每四年一个闰年计算,平均每年就要多算出0.0078天,经过四百年就会多 出大约3天来,因此,每四百年中要减少三个闰年。闰年的计算,归结起来就是通常说的:四年一闰;百年不闰,四百年再闰。######回复 @ChenQi : 嗯...是我理解错了,sorry :)######见楼下。你理解错我的意思了。###### LS都没理解lz的问题吧,如果是四年一闰;百年不闰,四百年再闰,那么1700年为什么是闰年?  1700/400=4.25 我刚才在AIX的机器上跑,cal返回的也是这个结果######如果是400年一闰的话,2000年是闰年没问题,那么1600年是闰年没问题,为什么1700年是闰年?这是Cal返回的结果######百年不润,千年400一润###### google了一下, 1582年那次只是欧洲天主教国家变更了计算日期, 世界范围是自1752的英国及英属殖民地转用格列高利历开始的 cal的计算方法就是研用这种, 1752之前逢百即闰######原来如此。######cal没错 ,在儒略历中1700年是润年,但是在格里历中是平年;并且后者由前者演化而来,所以1700是润年没什么奇怪的 ,另外1704也是润年 ######欧,感谢楼上几位回答,这个不讨论还真不知道###### julien 和 gregorian 的歷,改來改去,不合天文,科學,unix 的歷也跟着改來改去,這不必要學習吧!? 還有很多國家改 julien 到 gregorian 歷也不同時間,年
爱吃鱼的程序员 2020-06-05 13:05:12 0 浏览量 回答数 0

回答

在国外,区块链技术已在清算结算领域崭露头角。2015年,美国证券交易巨头联手区块链初创公司Chain.com正式上线了用于私有股权交易的Linq平台。Linq平台基于区块链技术,将股权交易市场3天的标准结算时间直接缩短到10分钟,几乎就在交易完成的瞬间完成结算工作,同时让结算风险降低了99%。2015年7月,Overstock创建了T0区块链交易平台销售首个加密债券,使得结算和交易发生在同一时间,这被称为“交易即结算”。2015年年底,高盛以比特币区块链为蓝本,开发了通过加密货币进行交易结算的系统SETLcoin,保证了几乎瞬时的执行和结算。Ripple专注于跨境支付领域,基于区块链开发的InterLedger协议项目在保持银行等金融机构的各自不同的记账系统的基础上建立了一个全球分布式清算结算体系。2015年,金融领域代表性组织R3CEV 和巴克啥莱银行、蒙特利尔银行(BMO)、瑞信银行、汇丰银行等11 家银行组成了金融科技创新公司来研究区块链技术应用,目前已经有40多家世界著名的银行成为R3 CEV的会员;此外,西班牙的Santander 银行认为,到2022 年,区块链技术帮助金融行业降低200 亿美元的记账成本,因为支付系统目前仍然是中心化的,货币的转移要通过中央银行,当金融公司彼此有生意往来时,同步内部的账簿是个耗时几天的繁重任务,桎梏了资本并带来了风险。 在国内,区块链的应用开发实践在以金融科技为代表的领域逐渐展开,金融企业、互联网企业、IT企业和制造企业积极投入区块链技术研发和应用推广,发展势头迅猛。区块链的应用已延伸到物联网、智能制造、供应链管理、数字资产交易等多个领域。2016年国务院印发《“十三五”国家信息化规划》,区块链与量子通信、类脑计算、虚拟现实等被并列为新技术基础研发和前沿布局。2016年工信部发布《中国区块链技术和应用发展白皮书》,为各级产业主管部门、从业机构提供指导和参考。2017年年初,中国人民银行推动的基于区块链的数字票据交易平台已测试成功,央行旗下的数字货币研究所也正式挂牌。区块链技术的意义在于它将成为互联网金融的基础设施。如果说 TCP/IP 建立了机器之间数据传输的可达、可信和可靠,那么区块链技术则首次在机器之间建立了“信任”。互联网被区块链划分出一个“信任”的连接层,可以记载、验证和转移经济价值。 本章针对未来“放开两端”的电力交易市场多主体、多模式、多规则的特点,开展基于区块链技术的分布式账本、共识机制、可信智能电表及购售电智能合约的研究。利用区块链技术构建的分布式账本,对电力市场的前端交易、营销数据实现分布式的记账存储,将交易中心提供的结算依据数据、营销部门提供的用户用电数据保存在区块链共享账本上,从而打通从支付计划、记账、付款、结算、清分到核算、纰漏、分析、预测的各个财务业务处理环节,实现购电费、售电公司服务费的安全、高效结算,提高财务数据的透明度和可审计性;利用区块链自动共享、不可篡改的记录保管方式,简化数据记录、存储环节,规避因人为操作造成的错误;通过智能合约将清算业务结构化,减少清算过程中的摩擦,同时实现“交易即结算”,提高清算、结算的效率。
问问小秘 2019-12-02 03:10:07 0 浏览量 回答数 0

问题

哈,上来吐糟。。。? 400 报错

哈,上来吐糟。。。? 400 报错 最近继续折腾机械制图。然后一堆槽点,上来吐吐。。 槽点1: intel i5-2500 ,再干3,4年。 因为solidworks强调单核高主频。大家可以对...
爱吃鱼的程序员 2020-06-04 14:19:04 1 浏览量 回答数 1

回答

硬盘读写速度现在怎么都达不到千兆, ssd读也达不到。(特殊设备除外,貌似看到新闻说有实验室的产品读写速度可以过G) 不过可以采取,写入缓冲的方式,数据先保存在内存,再写入到硬盘,不过缺点怕掉电。 读的话,采取分布式的读,可以达到很高的吞吐量。 网络传输的话,问题在于怎么保证传输稳定和不出错######这对内存的要求很高啊,而且还不能耽误其他程序对内存的使用,这个内存我觉得应该很大吧###### 引用来自“十一文”的答案 硬盘读写速度现在怎么都达不到千兆, ssd读也达不到。(特殊设备除外,貌似看到新闻说有实验室的产品读写速度可以过G) 不过可以采取,写入缓冲的方式,数据先保存在内存,再写入到硬盘,不过缺点怕掉电。 读的话,采取分布式的读,可以达到很高的吞吐量。 网络传输的话,问题在于怎么保证传输稳定和不出错 这么说来, 在顺序存取方面 , 网络传输速度相对与硬盘 io 速度还是有优势的,不知道这么理解是否成立。 因为机放内部设备间千兆网卡很常见,传输速度相当快,并且成本相对硬盘少许多。 ######看贴不跟帖,帖子要沉了。需要顶。 无论对错。发表点个人观点也好。不能让它沉。 ###### "千兆网卡很常见", 這裡 “ 千兆” 是指1000M bits, 大概也就100M Bytes。 Intel SSD 520 Sequential Read 已经可高达550M Bytes per second, 顺序写可高达275M Bytes per second.######回复 @十一文 : 现在的HBA卡4G的已经很通用了,好像12G的都出来了,一般服务器都有好几个接口的,再来个负载均很啥的,网络传输不是问题######汗 查了哈 还真是这样。擦我out了!######网络允许帮定双网卡。所以,网络传输可以更快点,相对来说,速度提升技术性难度小点。 磁盘阵列是否回更好? 光线通讯用的网卡是否会更快点。 ###### 顺便提点应用。 是这样的, 排序在信息处理方面很常见。 无论用什么算法。都是在一个相对平等的环境中。 现实中应用,比如1g内容的排序和1T内容排序难点还是数据交换上。 1g可以全部加载进内存玩。1T就要涉及到信息交换了。如果一个系统界面,把存储信息部分扩展到近乎无限空间大小。 就好比内存数据交换比磁盘数据交换要快许多。 比如1T大小数据做排序。 只要一个设备顺序读取数据,按照开头部分把数据通过网络分发给N 台机器,处理除了开头部分数据,后面的数据排序。这样就可以N多设备协同工作。效率达到 1+1 > 2 的目的。 否则如果是1台设备需要 加载数据,排序, 临时存储, 加载另外数据,处理,临时存储,加载.... 汇总分结果,获得总结果。 1台设备这么处理,做了很多重复劳动。如果网络够快 多台设备 避免了重复加载。 达到 1+1>2######回复 @十一文 : 差不多的意思。######hadoop是把数据分成分成多个部分,每部分各自处理结果,然后汇总处理。即把你的1t的数据分成n份,然后每份分发给不同机器处理。然后汇总结果。不知道适用你的场景不?######貌似这中数据分析,现在流行用hadoop。楼主可以调研哈######这么说不好理解。形象一点说一下:假设有1000个数据样本,每个样本里有1T条数据内容。 一知每个样本内数据条目重复率为0.001%.目的,找出这1000个样本内,每个样本中重复的样本。并统计所有样本中重复的次数。 这个如果算复杂运算,不如说是大数据处理。 假设 每个设备 一次能加载1G条数据。######硬盘技术感觉好多年都在原地踏步没有质的飞跃啊###### @johnzhang68 毕竟转速有影响######磁性硬盘在容量方面还是有明显的飞跃。速度方面提高得慢一些。######或许未来,存储虚拟化是条路子。  数据处理和数据交互关系密切。 以数据处理为目的,建立多系统群集方式在处理上或许会比高计算系统群集更有优势。 ######又没落了。顶起 ######没有试过,关注一下######再看了哈貌似你真的很需要hadoop
kun坤 2020-06-07 22:18:40 0 浏览量 回答数 0

回答

将一台ECS数据库下的mysql数据库迁移到rds的测试环境,我登陆的账号跟密码都是正确的,但是在rds控制台做迁移获取数据库列表的时候一直提示错误,可以检查一下自建mysql是否开启了root远程连接权限。 ------------------------- 目前SLS数据是1小时出一次 6小时后可以查询,数据保存3天,3天后会消除,但是用户自己可以手工导入ODPS,ODPS目前我们只提供java的SDK。对于只需要存放数据却不用做数据分析处理的用户因为用ODPS的成本相对会很高,建议用OSS。 ------------------------- RDS API连接:  http://dev.aliyun.com/read.php?spm=0.0.0.0.OSqGzU&tid=121 ------------------------- <http://help.aliyun.com/doc/list/11114453.html?spm=0.0.0.0.6grHgs>对rds有迁移需求的,客户参考这个连接 ------------------------- 回 8楼(村里一把手) 的帖子 恩,有道理~是想累积20条整理汇总一次~四不四会好点~ 因为问题总四每天都更新中滴呦 ------------------------- 能不能直接将ECS文件迁移到OSS上,有木有类似工具啥尼?用python osscmd工具如果不习惯命令行的,用ossbrowser也阔以哦~如果从一个节点转到另一个节点的业务,是需要走外网的,不能走内网呦~也可以考虑第三方帮忙~http://market.aliyun.com/product_list/13-121568002.html?spm=5176.383338.201.21.gnWwSB ------------------------- 如果没有购买带宽从一个ECS远程到另一个ECS外网是无法连接的。如果您设置了带宽,但是依旧无法访问,那请您查看下您有没有设置安全组规则(相当于系统外的防火墙)请您添加下,否则也是无法访问的。本地的电脑远程连接有公网带宽服务器,并非使用阿里云的服务器去远程新的服务器。ECS的公网ip无法ping通,这个也跟安全组规则有关,因为安全组规则设置了主机的所有网络访问权限。怎么查找防火墙? 服务器内部的防火墙规则可以在服务器内部看windows 开始--运行--输入firewall.cpl Linux使用iptables命令查看 ------------------------- SLS简单心跳显示失败,我们应如何处理?机器心跳失败的原因有可能是由于没有安装Logtail导致,目前心跳监控依赖新版的云盾。升级云盾版本连接:http://help.aliyun.com/view/11108323_13631340.html?spm=5176.7225169.1997283177.6.YnBcjT 通过web控制台使用该地址重新创建一个机器组,系统会在创建机器组的过程中自动安装Logtail,前提是系统安装了云盾新版本,服务器需要是杭州的linux os,具备公网地址,重新测试创建,一般创建后几分钟后即可部署完成。 ------------------------- RDS 5元购活动: http://promotion.aliyun.com/act/aliyun/rds/activity.html?spm=5176.383715.4.3.zuwric ------------------------- 如何复制一个数据库?我想把当前的数据库在RDS上复制一个做测试用,不知道怎么操作。如果您现在有两个以上的RDS实例,可以使用管理控制台中的将数据库迁移至其他实例功能直接进行迁移,如果您只有一个RDS实例,可以考虑将当前数据库导出,然后再导入,您可以使用binlog进行操作,然后导入的时候通过ECS使用内网导入,速度会较快的。可以用mysqldump迁移 ,innodb 用--single-transaction选项,不要带--lock-tables ------------------------- 香港服务器是不需要备案的 ------------------------- OSS直接在KEY里指定 ------------------------- ECS支持0M带宽升级,需要重启 ------------------------- 备案补偿规则(备多久送多久)补偿上限30天。 ------------------------- 月消费记录 ------------------------- 云监控需要ECS有外网环境下使用 ------------------------- 奇怪自己的CDN流量为何高?场景,做CDN测试时,把并未绑定的域名公布出去,但是流量消耗却很多,这是为什么?1.建议您可以在管理控制台的cdn里的资源监控里的访客分析里查看一下具体情况2.cdn会回源到服务器同步数据3.建议通过下载CDN 的访问日志,然后进行一下分析。4.再有异常,建议设置这个CDN防盗链功能,http://help.aliyun.com/doc/view/13513132.html?spm=5176.7114037.1996646101.9.zY2u99 ------------------------- 关于OSS 的防盗链设置请您参考http://help.aliyun.com/view/13439009.html  . ------------------------- 还在为备案在纠结吗?不用怕,看这个,每个省都不一样http://help.aliyun.com/view/13445927.html?spm=5176.386621.1.21.Iuzh9q
app客户经理 2019-12-01 23:22:16 0 浏览量 回答数 0

问题

分布式服务接口的幂等性如何设计(比如不能重复扣款)?【Java问答学堂】52期

面试题 分布式服务接口的幂等性如何设计(比如不能重复扣款)? 面试官心理分析 从这个问题开始,面试官就已经进入了实际的生产问题的面试了。 一个分布式系统中的某个接口࿰...
剑曼红尘 2020-07-08 09:15:27 3 浏览量 回答数 1

问题

如何设计一个高并发系统?【Java问答学堂】45期

面试题 如何设计一个高并发系统? 面试官心理分析 说实话,如果面试官问你这个题目,那么你必须要使出全身吃奶劲了。为啥?因为你没看到现在很多公司招聘的 JD 里都是说啥࿰...
剑曼红尘 2020-06-28 20:53:14 10 浏览量 回答数 1
阿里云企业服务平台 陈四清的老板信息查询 上海奇点人才服务相关的云产品 爱迪商标注册信息 安徽华轩堂药业的公司信息查询 小程序定制 上海微企信息技术相关的云产品 国内短信套餐包 ECS云服务器安全配置相关的云产品 天籁阁商标注册信息 开发者问答 阿里云建站 自然场景识别相关的云产品 万网 小程序开发制作 视频内容分析 视频集锦 代理记账服务 北京芙蓉天下的公司信息查询