使用Jlayer和AudioTrack实现在线流媒体边下边播功能
2016-01-17 16:14
561 查看
jlayer:mp3解码库
http://www.javazoom.net/javalayer/javalayer.html
思路:通过http得到在线音频文件的输入流,将未解码的音频流使用jlayer进行解码操作,保存解码后的音频数据到队列中,通过另一线程读取解码后的音频数据,从而边下边播的功能
仅支持MP3流的在线播放功能,可使用其他音频解码库实现多种音频编码格式的在线播放功能
http://www.javazoom.net/javalayer/javalayer.html
思路:通过http得到在线音频文件的输入流,将未解码的音频流使用jlayer进行解码操作,保存解码后的音频数据到队列中,通过另一线程读取解码后的音频数据,从而边下边播的功能
/** * 解码操作 */ private class DecodeThread extends Thread { private InputStream inputStream = null; private URL url = null; private int sampleRate; private int channel; public DecodeThread(URL url, int sampleRate, int channel) { this.url = url; this.sampleRate = sampleRate; this.channel = channel; } @Override public void run() { try { ByteArrayOutputStream outStream = new ByteArrayOutputStream(8 * 1024); HttpURLConnection conn = (HttpURLConnection) url.openConnection(); inputStream = new BufferedInputStream(conn.getInputStream(), 8 * 1024); Bitstream bitstream = new Bitstream(inputStream); Decoder decoder = new Decoder(); boolean done = false; SampleBuffer output; int frameIndex = 0; while (!done) { Header frameHeader = bitstream.readFrame(); if (frameHeader == null) { done = true; } else { output = (SampleBuffer) decoder.decodeFrame(frameHeader, bitstream); short[] pcm = output.getBuffer(); byte[] frameData = new byte[pcm.length]; for (int i = 0; i < pcm.length / 2; i++) { int j = i * 2; frameData[j] = (byte) (pcm[i] & 0xff); frameData[j + 1] = (byte) ((pcm[i] >> 8) & 0xff); } audioFrame.add(frameData); frameIndex++; } bitstream.closeFrame(); } //TODO 缓存音频数据 outStream.close(); } catch (IOException e) { e.printStackTrace(); } catch (BitstreamException e) { e.printStackTrace(); } catch (DecoderException e) { e.printStackTrace(); } } }
/** * 播放 */ private class PlayThread extends Thread { @Override public void run() { mAudioTrack.play(); int tempFrameIndex = 0; while (!isEnd) { if (!isPausing) { handler.sendEmptyMessage(SimplePlayerHelper.STATE_PLAY); try { Thread.sleep(50); } catch (InterruptedException e) { e.printStackTrace(); } List<byte[]> tempFrame = new ArrayList<byte[]>(); synchronized (audioFrame) { tempFrame.addAll(audioFrame.subList(tempFrameIndex, tempFrameIndex > audioFrame.size() - 40 ? audioFrame.size() : tempFrameIndex + 40)); } if (tempFrameIndex > 0 && tempFrame.isEmpty()) { handler.sendEmptyMessage(SimplePlayerHelper.STATE_END); isEnd = true; onCompletionListener.onCompletion(mMyAudioTrack); } for (int i = 0; i < tempFrame.size(); i++) { mAudioTrack.write(tempFrame.get(i), 0, tempFrame.get(i).length); } tempFrameIndex += tempFrame.size(); } } audioFrame.clear(); mAudioTrack.stop(); } }
仅支持MP3流的在线播放功能,可使用其他音频解码库实现多种音频编码格式的在线播放功能
相关文章推荐
- 使用IIS Live Smooth Streaming技术搭建流媒体直播系统
- 用Windows Media Service打造的流媒体直播系统
- 为Nginx添加mp4流媒体支持
- 使用Python的Flask框架实现视频的流媒体传输
- Nginx搭建流媒体FLV视频服务器配置示例
- [总结]RTMP流媒体技术零基础学习方法
- nginx轻松搭建自己的flv流媒体服务器
- 苹果收购Beats的交易,遭遇了五大障碍
- 顺序 IO 和 随机 IO
- 流媒体服务器网上最完全图解
- 微软新补丁软件再出故障 这次与流媒体有关
- 【Anychat音视频开发】视频直播系统的开发技术点
- 即时通讯AnyChat之移动流媒体的简介
- 流媒体Helix Server详细linux安装,配置
- 3GPP移动流媒体服务技术规范概述
- Linux 下五款出色的流媒体客户端
- 网络负载平衡群集(组图)
- 流媒体直播是什么?
- P2p视频直播与远程监控有什么区别?
- 流媒体直播系统由哪几部分组成?