同样是正确的程序,小程序运行起来要比大程序快。
要编译的代码越多,等待程序启动所耗费的时间就越长,要创建和销毁的对象越多,垃圾收集的工作量就越大,要分配和持有的对象越多,GC的周期就越长,要从磁盘装载进JVM的类越多,程序所花费的时间就越长,要程序的代码越多,机器硬件缓存的效率就越低,执行的代码越多,花费的时间就越长。所以早期的程序都是较为小的,由于硬件的改善可以使得新程序的运行速度可以被接受,所以性能上的差异给人的感觉不是很大。
java文件被编译成字节码文件运行在jvm上进一步编译成汇编语言的过程中有大量的优化,改善了性能。
我们不应该把大量时间都耗费在那些小的性能改进上,过早考虑优化是所有噩梦的根源。
我们应该编写清晰,直接,易读和易理解的代码。而优化则是算法和设计改变复杂的程序结构,提供更好的性能,但真正的优化要等到性能分析表明这些措施有巨大收益的时间才进行。(不包括哪些已经知道对性能不好的代码结构)
慎用异常
异常对性能不利。抛出异常首先要创建一个新的对象,Throwable接口的构造函数调用名为fillInStackTrace()的本地同步方法,fillInStackTrace()方法检查堆栈,收集调用跟踪信息。只要有异常被抛出,Java虚拟机就必须调整调用堆栈,因为在处理过程中创建了一个新的对象。异常只能用于错误处理,不应该用来控制程序流程。
尽量减少对变量的重复计算
明确一个概念,对方法的调用,即使方法中只有一句语句,也是有消耗的,包括创建栈帧、调用方法时保护现场、调用方法完毕时恢复现场等。所以例如下面的操作:
for (int i = 0; i < list.size(); i++) {...} 建议替换为: for (int i = 0, int length = list.size(); i < length; i++) {...} 这样,在list.size()很大的时候,就减少了很多的消耗
try catch放在循环内外的区别
public void test1(){ while(true){ try{ Thread.sleep(30*60*1000); } catch (InterruptedException e){ // TODO Auto-generated catch block e.printStackTrace(); } } } public void test2(){ try{ while(true){ Thread.sleep(30*60*1000); } } catch (InterruptedException e){ // TODO Auto-generated catch block e.printStackTrace(); } }
test1是将try catch放在了循环内,test2是将try catch放在了循环个。
二者的区别是如果test2中循环内容抛出异常的话,就直接跳出了循环,而test1在执行中抛出异常会继续循环。
至于二者选择哪种方式更好就要看你循环的内容了,①如果是为了计算一个结果的话,其中一个遇到异常那么即使继续计算后面的,最后的结果也不会正确,那么我们就需要按test2的方式编码;②如果是一个服务器线程维持一直处理其它线程产生的数据,为了保证系统的稳定性,就必须按test1的方式来编码。
另外有些人喜欢比较性能,我觉得没必要比较性能。如果需求是第②种情况没的选,如果是第①种情况,try catch写在外面,既美观,又易懂,性能肯定不比放在里面差。
CB在运行的时候已经提供了try catch,为什么还要在自己的代码处try catch?
如果不在异常发生的准确地点自己加上catch,那么程序确实如你所说会将异常捕获,但是捕获的结果却是退出运行。你有一程序,你要new一个东东,然后内存不够了,没有new成功,那么new就抛出一个异常。如果你没有捕获这个异常并进行处理而继续操作,那么你的程序很可能就崩了。把程序出现错误的时候,后果控制在最小范围内。
尽量采用懒加载的策略,即在需要的时候才创建
例如:
String str = "aaa";if (i == 1) { list.add(str); }
建议替换为:
if (i == 1) { String str = "aaa"; list.add(str); }
尽量指定类、方法的final修饰符
为类指定final修饰符可以让类不可以被继承,为方法指定final修饰符可以让方法不可以被重写。如果指定了一个类为final,则该类所有的方法都是final的。Java编译器会寻找机会内联所有的final方法,内联对于提升Java运行效率作用重大,此举能够使性能平均提高50% 。
尽可能使用使用栈变量(局部变量)
调用方法时传递的参数以及在调用中创建的临时变量都保存在栈中速度较快,其他变量,如静态变量、实例变量等,都在堆中创建,速度较慢。另外,栈中创建的变量,随着方法的运行结束,这些内容就没了,不需要额外的垃圾回收。
及时关闭流
Java编程过程中,进行数据库连接、I/O流操作时务必小心,在使用完毕后,及时关闭以释放资源。因为对这些大对象的操作会造成系统大的开销,稍有不慎,将会导致严重的后果。
如果能估计到待添加的内容长度,为底层以数组方式实现的集合、工具类指定初始长度
比如ArrayList、LinkedLlist、StringBuilder、StringBuffer、HashMap、HashSet等等,以StringBuilder为例:
StringBuilder() // 默认分配16个字符的空间
StringBuilder(int size) // 默认分配size个字符的空间
StringBuilder(String str) // 默认分配16个字符+str.length()个字符空间
可以通过类(这里指的不仅仅是上面的StringBuilder)的来设定它的初始化容量,这样可以明显地提升性能。比如StringBuilder吧,length表示当前的StringBuilder能保持的字符数量。因为当StringBuilder达到最大容量的时候,它会将自身容量增加到当前的2倍再加2,无论何时只要StringBuilder达到它的最大容量,它就不得不创建一个新的字符数组然后将旧的字符数组内容拷贝到新字符数组中—-这是十分耗费性能的一个操作。试想,如果能预估到字符数组中大概要存放5000个字符而不指定长度,最接近5000的2次幂是4096,每次扩容加的2不管,那么:
在4096 的基础上,再申请8194个大小的字符数组,加起来相当于一次申请了12290个大小的字符数组,如果一开始能指定5000个大小的字符数组,就节省了一倍以上的空间;
把原来的4096个字符拷贝到新的的字符数组中去。
这样,既浪费内存空间又降低代码运行效率。所以,给底层以数组实现的集合、工具类设置一个合理的初始化容量是错不了的,这会带来立竿见影的效果。但是,注意,像HashMap这种是以数组+链表实现的集合,别把初始大小和你估计的大小设置得一样,因为一个table上只连接一个对象的可能性几乎为0。初始大小建议设置为2的N次幂,如果能估计到有2000个元素,设置成new HashMap(128)、new HashMap(256)都可以。
乘法和除法使用移位操作
例如:
乘法和除法使用移位操作 例如: for
用移位操作可以极大地提高性能,因为在计算机底层,对位的操作是最方便、最快的,因此建议修改为:
for (val = 0; val < 100000; val += 5) { a = val << 3; b = val >> 1; }
移位操作虽然快,但是可能会使代码不太好理解,因此最好加上相应的注释。
循环内不要不断创建对象引用
会导致内存中有count份Object对象引用存在,count很大的话,就耗费内存了
无法确定数组大小时才使用ArrayList
基于效率和类型检查的考虑,应该尽可能使用array
不要将数组声明为public static final
因为这毫无意义,这样只是定义了引用为static final,数组的内容还是可以随意改变的,将数组声明为public更是一个安全漏洞,这意味着这个数组可以被外部类所改变。
尽量使用HashMap、ArrayList、StringBuilder
除非线程安全需要,否则不推荐使用Hashtable、Vector、StringBuffer,后三者由于使用同步机制而导致了性能开销
尽量避免随意使用静态变量
要知道,当某个对象被定义为static的变量所引用,那么gc通常是不会回收这个对象所占有的堆内存的,如:
public class A { private static B b = new B(); }
此时静态变量b的生命周期与A类相同,如果A类不被卸载,那么引用B指向的B对象会常驻内存,直到程序终止
及时清除不再需要的会话
为了清除不再活动的会话,许多应用服务器都有默认的会话超时时间,一般为30分钟。当应用服务器需要保存更多的会话时,如果内存不足,那么操作系统会把部分数据转移到磁盘,应用服务器也可能根据MRU(最近最频繁使用)算法把部分不活跃的会话转储到磁盘,甚至可能抛出内存不足的异常。如果会话要被转储到磁盘,那么必须要先被序列化,在大规模集群中,对对象进行序列化的代价是很昂贵的。因此,当会话不再需要时,应当及时调用HttpSession的invalidate()方法清除会话。
有关多线程的误区:线程越多,性能越好
一个物理CPU一次只能执行一个线程,多个线程则意味着必须进行线程的上下文切换,而这个代价是很高的。因此,线程数量必须适量,最好的情况应该是N个CPU使用N个线程,并且让每个CPU的占有率都达到100%,这种情况下,系统的吞吐量才发挥到极致。但现实中,不太可能让单线程独占CPU达到100%,一个普遍的愿意是因为IO操作,无论是磁盘IO还是网络IO都是很慢的。线程在执行中会等待,因此效率就下来了。这也就是为什么在一个物理核上执行多个线程会感觉效率高了,对于程序调度来说,一个线程等待时,也正是其它线程执行的大好机会,因此,CPU资源得到了充分的利用。
尽可能不要挂起线程
线程程序免不了要同步,最直接的方法就是使用锁。每次只允许一个线程进入临界区,让其它相关线程等待。等待有2种,一种是直接使用操作系统指令挂起线程,另外一种是自旋等待。在操作系统直接挂起,是一种简单粗暴的实现,性能较差,不太适用于高并发的场景,因为随之而来的问题就是大量的线程上下文切换。如果可以,尝试一下进行有限的自旋等待,等待不成功再去挂起线程也不迟。这样很有可能可以避免一些无谓的开销。JDK中ConcurrentHashMap的实现里就有一些自旋等待的实现。此外Java虚拟机层面,对synchronized关键字也有自旋等待的优化。
简单的getter/setter方法应该被置成final,这会告诉编译器,这个方法不会被重载
class MAF { private int _size; public void setSize (int size) { _size = size; } } 更正: class DAF_fixed { private int _size; final public void setSize (int size) { _size = size; } }
不要总是使用取反操作符(!)
取反操作符(!)降低程序的可读性,所以不要总是使用。