java.util.ServiceLoader使用
2016-04-15 21:40
435 查看
近期在项目中需要实现能在配置文件中定义多个统一接口类型的类,可以在程序中获取到所有配置的类,刚开始打算配置到properties中,然后去程序读取,感觉这种方式不太灵活,于是,研究研究java中有没有这种支持,最终确认ServiceLoader可以实现这种功能,下面讲解如何使用ServiceLoader类。
首先定义一个接口程序的定义如下:
需要在META-INF/services下以IShareniuService这个类的全名来新建立一个文件,文件中的内容为两个实现类的全名,如下:
![](http://img.blog.csdn.net/20160415214116125?watermark/2/text/aHR0cDovL2Jsb2cuY3Nkbi5uZXQv/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70/gravity/Center)
所有的实现和配置都已经完成,下面写一个测试类来看一下结果:
具体的输出来如下:
shareniu2getScheme=shareniu2sayHello
shareniu1getScheme=shareniu1sayHello
可以看到ServiceLoader可以根据IShareniuService把定义的两个实现类找出来,返回一个ServiceLoader的实现,而ServiceLoader实现了Iterable接口,所以可以通过ServiceLoader来遍历所有在配置文件中定义的类的实例
hadoop中 FileSystem就是通过这个机制来根据不同文件的scheme来返回不同的FileSystem。
FileSystem中的相关实例如下:
private static void loadFileSystems() {
synchronized (FileSystem.class) {
if (!FILE_SYSTEMS_LOADED) {
ServiceLoader<FileSystem> serviceLoader = ServiceLoader.load(FileSystem.class);
for (FileSystem fs : serviceLoader) {
SERVICE_FILE_SYSTEMS.put(fs.getScheme(), fs.getClass());
}
FILE_SYSTEMS_LOADED = true;
}
}
}
FileSystem对应的配置如下:
org.apache.hadoop.fs.LocalFileSystem
org.apache.hadoop.fs.viewfs.ViewFileSystem
org.apache.hadoop.fs.s3.S3FileSystem
org.apache.hadoop.fs.s3native.NativeS3FileSystem
org.apache.hadoop.fs.kfs.KosmosFileSystem
org.apache.hadoop.fs.ftp.FTPFileSystem
org.apache.hadoop.fs.HarFileSystem
通过之前的测试类输出对应的scheme和class如下:
file=class org.apache.hadoop.fs.LocalFileSystem
viewfs=class org.apache.hadoop.fs.viewfs.ViewFileSystem
s3=class org.apache.hadoop.fs.s3.S3FileSystem
s3n=class org.apache.hadoop.fs.s3native.NativeS3FileSystem
kfs=class org.apache.hadoop.fs.kfs.KosmosFileSystem
ftp=class org.apache.hadoop.fs.ftp.FTPFileSystem
har=class org.apache.hadoop.fs.HarFileSystem
hdfs=class org.apache.hadoop.hdfs.DistributedFileSystem
hftp=class org.apache.hadoop.hdfs.HftpFileSystem
hsftp=class org.apache.hadoop.hdfs.HsftpFileSystem
webhdfs=class org.apache.hadoop.hdfs.web.WebHdfsFileSystem
可以看到FileSystem会把所有的FileSystem的实现都以scheme和class来cache,之后就从这个cache中取相应的值。
因此,以后可以通过ServiceLoader来实现一些类似的功能。而不用依赖像Spring这样的第三方框架。
首先定义一个接口程序的定义如下:
public interface IShareniuService { public String sayHello(); public String getScheme(); } public class ShareniuserverImp1 implements IShareniuService { public String sayHello() { return "shareniu1sayHello"; } public String getScheme() { return "shareniu1getScheme"; } } public String sayHello() { return "shareniu2sayHello"; } public String getScheme() { return "shareniu2getScheme"; }
需要在META-INF/services下以IShareniuService这个类的全名来新建立一个文件,文件中的内容为两个实现类的全名,如下:
所有的实现和配置都已经完成,下面写一个测试类来看一下结果:
ServiceLoader<IShareniuService> serviceLoader = ServiceLoader .load(IShareniuService.class); for (IShareniuService service : serviceLoader) { System.out.println(service.getScheme()+"="+service.sayHello()); }
具体的输出来如下:
shareniu2getScheme=shareniu2sayHello
shareniu1getScheme=shareniu1sayHello
可以看到ServiceLoader可以根据IShareniuService把定义的两个实现类找出来,返回一个ServiceLoader的实现,而ServiceLoader实现了Iterable接口,所以可以通过ServiceLoader来遍历所有在配置文件中定义的类的实例
hadoop中 FileSystem就是通过这个机制来根据不同文件的scheme来返回不同的FileSystem。
FileSystem中的相关实例如下:
private static void loadFileSystems() {
synchronized (FileSystem.class) {
if (!FILE_SYSTEMS_LOADED) {
ServiceLoader<FileSystem> serviceLoader = ServiceLoader.load(FileSystem.class);
for (FileSystem fs : serviceLoader) {
SERVICE_FILE_SYSTEMS.put(fs.getScheme(), fs.getClass());
}
FILE_SYSTEMS_LOADED = true;
}
}
}
FileSystem对应的配置如下:
org.apache.hadoop.fs.LocalFileSystem
org.apache.hadoop.fs.viewfs.ViewFileSystem
org.apache.hadoop.fs.s3.S3FileSystem
org.apache.hadoop.fs.s3native.NativeS3FileSystem
org.apache.hadoop.fs.kfs.KosmosFileSystem
org.apache.hadoop.fs.ftp.FTPFileSystem
org.apache.hadoop.fs.HarFileSystem
通过之前的测试类输出对应的scheme和class如下:
file=class org.apache.hadoop.fs.LocalFileSystem
viewfs=class org.apache.hadoop.fs.viewfs.ViewFileSystem
s3=class org.apache.hadoop.fs.s3.S3FileSystem
s3n=class org.apache.hadoop.fs.s3native.NativeS3FileSystem
kfs=class org.apache.hadoop.fs.kfs.KosmosFileSystem
ftp=class org.apache.hadoop.fs.ftp.FTPFileSystem
har=class org.apache.hadoop.fs.HarFileSystem
hdfs=class org.apache.hadoop.hdfs.DistributedFileSystem
hftp=class org.apache.hadoop.hdfs.HftpFileSystem
hsftp=class org.apache.hadoop.hdfs.HsftpFileSystem
webhdfs=class org.apache.hadoop.hdfs.web.WebHdfsFileSystem
可以看到FileSystem会把所有的FileSystem的实现都以scheme和class来cache,之后就从这个cache中取相应的值。
因此,以后可以通过ServiceLoader来实现一些类似的功能。而不用依赖像Spring这样的第三方框架。
相关文章推荐
- Java作业5
- 使用junit4测试Spring
- java import、package作用与用法
- Java设计模式--------建造者模式
- JavaEE包括13中核心技术
- java中的集合:collection和各个map
- eclipse maven 项目导出为 jar 包
- JDK5新特性之增强for
- Spring项目的建立-移植流程(非入门教程)
- Spring项目的建立-移植流程(非入门教程)
- 20145216史婧瑶《Java程序设计》第7周学习总结
- 20145216史婧瑶《Java程序设计》第7周学习总结
- 使用 eclipse+egit 将项目提交至 github ,本地的git仓库:eclipse工作项目目录
- java入门
- Java 内存分配全面浅析 | Java基础
- JAVA 泛型
- java中静态方法中调用非静态方法
- 我是一个Java class
- HashMap 与 hashtable的区别
- java高级程序设计(第五周)