一个文本中有好多网址,我想将所有含www.网址提取出来,有没有这样的软件.急用

高分请问下,一个文本中有好多网址,我想将所有含www.网址提取出来,有没有这样的软件.急用?

一个文本中有好多网址,我想将所有含www.网址提取出来,有没有这样的软件.急用!怎样用正则,最好是能使用一个替换软件,详细教程.解决了我再加50分
最新回答
卿弦季鸢

2024-05-13 21:13:24

你好,推荐用软件Replace Pioneer来做批量提取,详细步骤:
1. ctrl-o 打开文本文件
2. ctrl-h 打开replace窗口
(1) 在Search for pattern输入:
"www\.[a-zA-Z0-9_\.\-\&\?\=\;\/]+"(不带双引号)
(2) 在Replace with pattern输入:
"$match\n"(不带双引号)
(3) 去掉Print Unmatched Unit前面的勾,表示去掉未匹配的内容,只保留www地址。
3. 点击Replace即可,ctrl-s存盘。

注意:正则表达式www\.[a-zA-Z0-9_\.\-\&\?\=\;\/]+可能不够全面,你可以自己逐步完善,如果你发现网址里有其他字符比如逗号,可以在中括号里加入\,像这样:
www\.[a-zA-Z0-9_\.\-\&\?\=\;\/\,]+
节操嘎嘣脆

2024-05-13 01:29:42

将你的这个文档选择“全选”,然后选择“复制”,然后“粘贴”到excel中,再将文档全都选中,并选择“数据”--“筛选”--“自动筛选”,然后在最上面的单元格中就会出现一个下拉式菜单,你只要点击,就可以在里面找到你想筛选的内容。你可以点击里面的“www”,然后表中就只剩下带有"www"的内容了。
良辰未赏透

2024-05-13 04:31:55

楼上的,我不同意你的方法.跟我说的不是一回事,我的意思是杂乱的一堆网址,并不像你说的那样自动筛选就行