目的:批量保存【糗事百科】网站的“最新”糗事TXT

要求(最基本的):就是根据网址列表(有规律的)批量下载每个页面的源文件~

小要求(这些要求如果不行的话也没关系,我还有别的办法,不过最好能满足):
①如果能把源文件直接转成可看的文本(最好直接生成TXT文档)而不是乱糟糟的源码就更好了;
②如果还能自动选取某部分(糗事帖子正文),而不是整个网页来保存,就更好了;
③如果编写简单的程序,请说明一下代码的意义和功能(就是加些注释),如

展开全部
收起
6回答
提交回答
  • 至过去的我

    2044人对此回答表示赞同

    我是未来的你,你现在是不是在年找寻小程序答案。你不要感觉诧异,给你来信原因,就是让你不在后悔。今天去学习如何推广小程序,相信......点击查看更多>
    发布于
  • Adeline

    15人对此回答表示赞同

    S常用命令详解

    dir 列文件名 deltree 删除目录树 cls 清屏 cd 改变当前目录
    copy 拷贝文件 diskcopy 复制磁盘 del 删除文件 format 格式化磁盘
    edit 文本编辑 mem 查看内存状况 md 建立子目录 move 移动文件、改目录名
    more 分屏显示 type 显示文件内容 rd 删除目录
    sys 制作DOS系统盘
    ren 改变文件名 xcopy 拷贝目录与文件 chkdsk
    展开
    15
    0回复
    发布于 6年前

    评论(0)

    收起评论

  • 编程dogge

    15人对此回答表示赞同

    获取网页内容,然后解析网页源码,提取出自己感兴趣的东西即可;
    之前我做过一个解析我们学校各网站新闻页面的小工具;
    用C#做的,其实就是操作字符串;
    很简单的,方法都是一样的;
    不过有点麻烦的是这个通用性不高;
    对每一个站点都需要先手动提取其特征;
    展开
    15
    0回复
    发布于 6年前

    评论(0)

    收起评论

  • Jaxson

    14人对此回答表示赞同

    你说的这些功能不用自己变成,可以用火车头采集器进行采集就可以了,软件使用起来很简单,如果不会用可以和我联系。
    展开
    14
    0回复
    发布于 6年前

    评论(0)

    收起评论

  • Reid

    10人对此回答表示赞同

    程序如下,实现对网页源码保存为txt文档
    import java.io.BufferedReader;
    import java.io.File;
    import java.io.FileOutputStream;
    import java.io.InputStream;
    import java.io.InputStreamReader;
    import java.net.HttpURLConnection;
    展开
    10
    0回复
    发布于 6年前

    评论(0)

    收起评论

  • 凌云舒语

    9人对此回答表示赞同

    程序如下,实现对网页源码保存为txt文档
    import java.io.BufferedReader;
    import java.io.File;
    import java.io.FileOutputStream;
    import java.io.InputStream;
    import java.io.InputStreamReader;
    import java.net.HttpURLConnection;
    展开
    9
    0回复
    发布于 6年前

    评论(0)

    收起评论

  • ori旭

    2人对此回答表示赞同

    你搜一下,网站整站下载,不过下来的都是静态的html页面,我用过很好用的
    展开
    2
    0回复
    发布于 6年前

    评论(0)

    收起评论

A B C D E F G H I J K L M N O P Q R S T U V W X Y Z
咨询热线

13312967497

扫码添加业务即可随时咨询 还可领取小程序推广攻略

业务咨询: 13312967497
扫码咨询

扫码咨询套餐

回到顶部