[新手上路]批处理新手入门导读[视频教程]批处理基础视频教程[视频教程]VBS基础视频教程[批处理精品]批处理版照片整理器
[批处理精品]纯批处理备份&还原驱动[批处理精品]CMD命令50条不能说的秘密[在线下载]第三方命令行工具[在线帮助]VBScript / JScript 在线参考
返回列表 发帖

[文本处理] 批处理对超大文本文件进行去重的问题

@echo off
for /f "delims=" %%i in (2.txt) do (
if not defined %%i set %%i=A & >>去重后.txt echo %%i)
使用这个批处理对不到500万行的文本跑了一晚上,才跑出不到40万行。有没有可能使用批处理对500完或2500万行的数据进行快速去重呢?使用editplus对400多W行的数据去重,跑了一上午了还没跑完。。。

大家有更高效的方法吗?

下一个 gawk 第三方工具:
  1. @gawk "!a[$0]++" a.txt>b.txt
复制代码
1

评分人数

TOP

1你的大文本,能压缩发网盘么?
2网上有个软件,我不知原理和效果如何,推荐你试试,
-----------------------------------
下载地址:



精英txt文本整理工具箱v3.4

下载地址1:
http://pan.baidu.com/share/link? ... 7&uk=1563140309

产品价格: 免费

********************************


功能说明:
不到1秒内,轻松处理txt文件!
可以对文本文件,去重复行,相同行。给txt文件数据处理提供大量方便!!
该软件是免费软件,绿色,直接使用即可
脚本是写给人看的,是写给用户看的,而不是写给机子看的
用户能看懂、会修改的脚本,才是好脚本。
写易懂的powershell脚本帮人解决问题,进而让用户学会自渔,吾所愿也

TOP

回复 2# CrLf

多谢 CrLf

TOP

回复 3# PowerShell


    多谢版主,这个之前用过,处理小文本还可以

TOP

EmEditor这个支持大文件。

TOP

返回列表