博客
关于我
svn 钩子 hooks 的 pre-commit 配置递交文件格式,文件大小,备注必填
阅读量:233 次
发布时间:2019-02-28

本文共 1834 字,大约阅读时间需要 6 分钟。

某项目由于要求禁止递交5M以上的单个文件,禁止递交压缩包(zip,rar),必须填写备注。

通过svn 钩子 hooks 的 pre-commit 就可以实现。
以项目obdoc为例子,钩子文件就在/svnroot/repository/obdoc/hooks 下面
windows下钩子是bat后缀文件,linux下是没后缀的文件,后缀为tmpl的是示例文件
pre-commit 钩子可以在递交前对递交内容进行检测,
我们把pre-commit.tmpl复制为pre-commit ,为给它可执行权限

#cd /svnroot/repository/obdoc/hooks

#cp pre-commit.tmpl pre-commit
#chmod 0777 pre-commit

全部脚本内容如下:

#!/bin/sh

(the path to this repository)

REPOS="$1"

#(the name of the txn about to be committed)
TXN="$2"

#此处更改大小限制,这里是5M

MAX_SIZE=5242880

#此处增加限制文件后缀名

FILTER=’.(zip|rar|o|obj|tar|gz|exe)$’

#避免中文文件乱码识别不了文件大小

export LANG=en_US.UTF-8

#svnlook命令路径

SVNLOOK=/usr/bin/svnlook

#获取递交备注大小

LOGMSG=$SVNLOOK log -t "$TXN" "$REPOS" | wc -c

if [ “$LOGMSG” -lt 9 ]

then
echo “请输入8个字符以上的提交说明” 1>&2
exit 1
fi

#获取递交文件列表

files= ( ( (SVNLOOK changed -t $TXN $REPOS |cut -d " " -f 4-)

rc=0

echo “$files” | while read f;

do
if echo $f|tr A-Z a-z|grep -Eq F I L T E R ; t h e n e c h o " 不 支 持 ( FILTER; then echo "不支持( FILTER;thenecho"(FILTER)格式的文件" >&2
exit 1;
fi

filesize= ( ( (SVNLOOK cat -t “ T X N " " TXN" " TXN""REPOS” “$f” | wc -c)

#以下echo语句为写日志,可以忽略。
#echo “TXN:” >>svnhooklog.txt
#echo $TXN >>svnhooklog.txt
#echo “,REPOS:” >>svnhooklog.txt
#echo $REPOS >>svnhooklog.txt
#echo “,files:” >>svnhooklog.txt
#echo KaTeX parse error: Expected 'EOF', got '#' at position 24: …svnhooklog.txt #̲echo "," >>svnh…SVNLOOK cat -t “ T X N " " TXN" " TXN""REPOS” “$f” >>svnhooklog.txt
#echo “,filesize:” >>svnhooklog.txt
#echo f i l e s i z e > > s v n h o o k l o g . t x t i f [ " filesize >>svnhooklog.txt if [ " filesize>>svnhooklog.txtif["filesize" -gt “ M A X S I Z E " ] t h e n e c h o " 文 件 不 允 许 大 于 5 M ( 必 须 小 于 等 于 MAX_SIZE" ] then echo "文件不允许大于5M(必须小于等于 MAXSIZE"]thenecho"5M(MAX_SIZE)B” >&2
echo “ErrorFile: f f i l e s i z e : f filesize: ffilesize:filesize” >&2
exit 1
fi
done

转载地址:http://zzcp.baihongyu.com/

你可能感兴趣的文章
NIFI1.21.0_Postgresql和Mysql同时指定库_指定多表_全量同步到Mysql数据库以及Hbase数据库中---大数据之Nifi工作笔记0060
查看>>
NIFI1.21.0最新版本安装_连接phoenix_单机版_Https登录_什么都没改换了最新版本的NIFI可以连接了_气人_实现插入数据到Hbase_实际操作---大数据之Nifi工作笔记0050
查看>>
NIFI1.21.0最新版本安装_配置使用HTTP登录_默认是用HTTPS登录的_Https登录需要输入用户名密码_HTTP不需要---大数据之Nifi工作笔记0051
查看>>
NIFI1.21.0通过Postgresql11的CDC逻辑复制槽实现_指定表多表增量同步_增删改数据分发及删除数据实时同步_通过分页解决变更记录过大问题_02----大数据之Nifi工作笔记0054
查看>>
NIFI1.21.0通过Postgresql11的CDC逻辑复制槽实现_指定表多表增量同步_增加修改实时同步_使用JsonPath及自定义Python脚本_03---大数据之Nifi工作笔记0055
查看>>
NIFI1.21.0通过Postgresql11的CDC逻辑复制槽实现_指定表多表增量同步_插入修改删除增量数据实时同步_通过分页解决变更记录过大问题_01----大数据之Nifi工作笔记0053
查看>>
NIFI1.21.0通过Postgresql11的CDC逻辑复制槽实现_指定表或全表增量同步_实现指定整库同步_或指定数据表同步配置_04---大数据之Nifi工作笔记0056
查看>>
NIFI1.23.2_最新版_性能优化通用_技巧积累_使用NIFI表达式过滤表_随时更新---大数据之Nifi工作笔记0063
查看>>
NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_根据binlog实现update数据实时同步_实际操作05---大数据之Nifi工作笔记0044
查看>>
NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_根据binlog实现数据实时delete同步_实际操作04---大数据之Nifi工作笔记0043
查看>>
NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_配置binlog_使用处理器抓取binlog数据_实际操作01---大数据之Nifi工作笔记0040
查看>>
NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_配置数据路由_实现数据插入数据到目标数据库_实际操作03---大数据之Nifi工作笔记0042
查看>>
NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_配置数据路由_生成插入Sql语句_实际操作02---大数据之Nifi工作笔记0041
查看>>
NIFI从MySql中离线读取数据再导入到MySql中_03_来吧用NIFI实现_数据分页获取功能---大数据之Nifi工作笔记0038
查看>>
NIFI从MySql中离线读取数据再导入到MySql中_不带分页处理_01_QueryDatabaseTable获取数据_原0036---大数据之Nifi工作笔记0064
查看>>
NIFI从MySql中离线读取数据再导入到MySql中_无分页功能_02_转换数据_分割数据_提取JSON数据_替换拼接SQL_添加分页---大数据之Nifi工作笔记0037
查看>>
NIFI从Oracle11G同步数据到Mysql_亲测可用_解决数据重复_数据跟源表不一致的问题---大数据之Nifi工作笔记0065
查看>>
NIFI从PostGresql中离线读取数据再导入到MySql中_带有数据分页获取功能_不带分页不能用_NIFI资料太少了---大数据之Nifi工作笔记0039
查看>>
nifi使用过程-常见问题-以及入门总结---大数据之Nifi工作笔记0012
查看>>
NIFI分页获取Mysql数据_导入到Hbase中_并可通过phoenix客户端查询_含金量很高的一篇_搞了好久_实际操作05---大数据之Nifi工作笔记0045
查看>>