精华内容
下载资源
问答
  • 如何使用java自动获取网页内容并保存下来
    2021-02-12 13:43:03

    3.写main方法:

    这里主要涉及到数据流的转换,和url的打开与读取,对于网址,有些网站采用该该方法保存不全,例如百度经验的网页就很难用此方法保存;

    public static void main(String[] args) {

    String dre="**************";//一个网址,这里就不贴出来了;

    String filep="c:/URL.html";

    try{

    URL url=new URL(dre);

    InputStream in=url.openStream();

    InputStreamReader isr=new InputStreamReader(in);

    BufferedReader br=new BufferedReader(isr);

    BufferedWriter bw=new BufferedWriter(new FileWriter(filep));

    PrintWriter pw=new PrintWriter(bw);

    String temps=null;

    while((temps=br.readLine())!=null){

    pw.print(temps);

    }

    System.out.println("网页"+dre+"的内容保存完成,"

    + "保存在"+filep+"文件中,请注意查看");

    }catch(Exception e){

    e.printStackTrace();

    }

    }

    更多相关内容
  • 解压后先把依赖包加到pom中,然后再执行代码测试。利用Jwebbrower实现网页快照(完整的),很多查到的资料要么只有电脑桌面这么大要么就截不完整。本工具截一条百度新闻页实测效果还是比较好的。
  • 本篇文章主要介绍了Java两种方式简单实现:爬取网页并且保存 ,主要用UrlConnection、HttpClient爬取实现,具有一定的参考价值,感兴趣的小伙伴们可以参考一下。
  • I am trying to read html site using below code,System hanging any hints please:package ...import java.io.BufferedWriter;import java.io.FileWriter;import java.net.Socket;import javax.net.SocketFa...

    I am trying to read html site using below code,System hanging any hints please:

    package com.test;

    import java.io.BufferedWriter;

    import java.io.FileWriter;

    import java.net.Socket;

    import javax.net.SocketFactory;

    import java.net.InetAddress;

    public class writingFile {

    public static void main(String a[]) throws Exception {

    SocketFactory factory=SocketFactory.getDefault();

    Socket socket=new Socket(InetAddress.getByName("java.sun.com"), 80);

    BufferedWriter out=new BufferedWriter(new FileWriter("C://test.html"));

    int data;

    while((data=socket.getInputStream().read()) != -1) {

    out.write((char)data);

    out.flush();

    }

    }

    }

    Regards,

    Raj

    解决方案

    This is HTTP. You can't just open a socket and start reading something. You have to be polite to the server and send a request first:

    socket.getOutputStream().write("GET /index.html HTTP/1.0\n\n".getBytes());

    socket.getOutputStream().flush();

    Then read a HTTP response, parse it, and get your html page back.

    EDIT I wrote what to do with sockets only because it was the immediate problem of the OP. Using URLConnection is the correct way, as answered by @Mike Deck.

    展开全文
  • Java学习中的小知识。

    Java学习中的小知识。

     

    展开全文
  • 包含完整的工程,来源于其他论坛,经个人修改,直接运行即可,运行效率不是很高,基本功能可以实现
  • 有没有办法使用WebDriver保存完整的网页?目前我做getPageSource(),然后将所有内容放入html本地文件,但保存的页面状态不佳(奇怪的字符,没有图像,所有元素向下偏移)请参阅下面我使用的代码:@Testpublic void test...

    有没有办法使用WebDriver保存完整的网页?

    目前我做getPageSource(),然后将所有内容放入html本地文件,但保存的页面状态不佳(奇怪的字符,没有图像,所有元素向下偏移)

    请参阅下面我使用的代码:

    @Test

    public void testSomeThing(){

    FirefoxDriver driver = new FirefoxDriver();

    driver.get("http://google.com");

    String pageSource = driver.getPageSource();

    writeInFile(System.getProperty("user.dir")+"/target/logs/testPage.html", pageSource);

    }

    public static void writeInFile(String sFileName, String sTextToWrite){

    FileWriter outFile;

    General.sendComments("Write to file: " + sFileName);

    try {

    outFile = new FileWriter(sFileName);

    PrintWriter out = new PrintWriter(outFile);

    out.print(sTextToWrite);

    out.close();

    } catch (IOException e) {

    // TODO Auto-generated catch block

    e.printStackTrace();

    }

    }

    有人可以建议我使用WebDriver在firefox中保存完整网页的方式吗?例如自动?

    展开全文
  • 如何用java保存网页

    热门讨论 2009-01-05 11:04:01
    现在这个在软件开发中用的很多,找到了共享一下
  • JAVA读取远程网页文件并保存本地

    热门讨论 2010-09-23 11:48:49
    JAVA读取远程网页文件并保存本地 从远程URL地址获取网页文件下载到本地 这个方法可以生成静态HTML文件使用!
  • 利用java爬取网页信息,并且到处excel,亲测有用,有问题可以联系我
  • Java爬虫获取网页表格数据并保存到MySQL数据库,包含完整代码
  • 基本原理: JDK6u10版本以上提供了DeskTop的API接口支持,可以根据URI参数自动打开 操作系统默认的浏览器来加载对应的网页,同时借助JDK的Robot类实现自动截屏 这样就完成了对任意一个URL对应网页保存为图片。...
  • 【实例简介】我用一个类将url打开的网页保存成图片格式的功能包装好了 只要下载 修改相应的url等就可以实现主要函数 reload String url String picname String jsnamepublic static void implcmd String cmd只要将包...
  • 我们在前面讲到httpclient抓取网页内容的时候 通常都是获取到页面的源代码content存入数据库。详见下文:那么如果我们除了获得页面源代码之外 还想把页面保存到本地存成html应该怎么做呢?其实很简单 我们先来看访问...
  • JAVA网页截屏代码

    2018-03-22 17:02:23
    对url网页进行截屏,生成图片,保存到本地磁盘中,绝对的JAVA代码哦
  • 安卓java读取网页源码 FeMemer-with-Java 概述 What's FeMemer FeMemer(Forever Memory)是一个多应用收藏平台。平时我们在看到一些文章或者帖子的时候,可能会想到把它们收藏起来。但是如果这些帖子在不同的应用中...
  • Java使用Spire讲网页保存为PDF并去除Evaluation Warning水印方案,https://blog.csdn.net/kewen_123/article/details/121025630
  • 运用URL下载网页
  • Java抓取网页数据

    2021-02-12 09:30:22
    本文就用Java给大家演示如何抓取网站的数据:(1)抓取原网页数据;(2)抓取网页JavaScript返回的数据。一、抓取原网页。这个例子我们准备从http://ip.chinaz.com上抓取ip查询的结果:第一步:打开这个网页,然后输入IP...
  • 借助iText这个Java库,我们可以将HTML文件保存为图片文件进而转换成PDF格式,接下来就来具体看下JavaScript+Java实现HTML页面转为PDF文件保存的方法需求是一个导出pdf的功能,多方奔走终于实现了,走了不少弯路,而且...
  • java网页快照-网页转存为图片

    千次阅读 2017-08-18 16:43:22
    java网页快照-网页转存为图片 个人觉得最完美最方便的网页快照生成方式。可以生成大型网页的快照。非常棒! 使用代码前需要导入 jar包。需要三个jar包 :swt-3.6M3-win32-win32-x86.jar,DJNativeSwing-SWT....
  • java保存网页的代码

    2009-07-02 09:37:06
    保存网页,通过java技术,生成html,不过保存网页不带样式
  • 注:如果代码中有冗余,错误或者不规范,欢迎指正。...Java简单实现:爬取网页并且保存  对于网络,我一直处于好奇的态度。以前一直想着写个爬虫,但是一拖再拖,懒得实现,感觉这是一个很麻烦的事情
  • import java.io.*; import java.net.MalformedURLException; import java.net.URL; import java.net.URLConnection; public class URLFile { public static void main(String[] args) throws ...
  • java 网页截图

    2017-09-28 10:15:18
    java 网页截图,实现打开指定url页面,完成截图,并把图片保存到指定路径
  • java 保存网页

    千次阅读 2010-07-20 15:51:00
    <br />这是我从网上搜到的,用java网页保存为mht格式,感觉不错,所以就共享一下给大家,让朋友们也学习学习! <br />需要用到的jar包有java mail,下载地址:...
  • 主要介绍了Java实现的爬虫抓取图片并保存操作,涉及Java针对页面URL访问、获取、字符串匹配、文件下载等相关操作技巧,需要的朋友可以参考下
  • 主要介绍了Java简单实现session保存到redis的方法,结合实例形式分析了Java将session存入redis缓存服务器的相关设置、实现技巧与操作注意事项,需要的朋友可以参考下
  • 网页转换为PDF

    2021-02-26 13:21:21
    转至:http://zhiwu88.blog.hexun.com/70623952_d.html字号:大中 小很多时候我们看一个...但在火狐,只能保存单个页面和一大堆网页的图片、css、js,会带来很多混乱和不方便。那在火狐有没有一种方法可以一次保存网...
  • java截图指定网页保存图片;

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 160,978
精华内容 64,391
关键字:

java保存网页

java 订阅