您的位置:首页 > 其它

Pig脚本书写时候注意事项

2014-06-21 14:14 337 查看
set mapreduce.job.cache.files 'hdfs://192.168.100.163:9000/user/blacklist.txt#blacklist';

register ExtractAndTransform.jar

all_weblogs = load 'hdfs://192.168.100.163:9000/user/apache_tsv.txt' as(ip:chararray,timestamp:long,page:chararray,http_status:int,payload_size:int,useragent:chararray);

nobots_weblogs = FILTER all_weblogs BY NOT com.sn.hadoop.extract.pig.IsUseragentBot(useragent);

store nobots_weblogs into 'hdfs://192.168.100.163:9000/user/nobots_weblogs_another';

1、路径对应的都是HDFS

2、'='两侧都应该有个空格
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: