第一步:
$url="http://www..com/index.php";
$file = file_get_contents($url);
先获取数据。
-------------------------
第二部:
获取数据,写入数据库
$q =$_POST['question'];
$a = $_POST['answer'];
$con = mysql_connect("localhost","joe","123");
if (!$con)
{
echo 'Could not connect: ' . mysql_error();
}
mysql_select_db("joe",$con);
mysql_query("INSERT INTO message VALUES ('$q', '$a', '无')");
mysql_close($con);
echo "输入成功";
大体思路是这样的。可以多研究下。
⑵ 请问各位大侠,我想在用c#在百度上搜索指定的搜索内容然后搜索,然后抓取搜索到的网页放到数据库中怎么弄
1. 检查网络
2. 输入关键字,拼接地址字符串,发送请求
3. 分析获取的结果(对字符串的处理),插入到数据库。
第一步骤参考:http://blog.csdn.net/yoyoch1/archive/2009/08/02/4401960.aspx
第二步骤参考: MSDN :WebClient 这个类
第三步骤略
⑶ 抓取网页数据怎么保存到数据库 php
抓取网页是我的强项,
呵呵
给你几点建议
1、将整个文章的编码转换成你数据库专的默认编属码,否则会报错。
2、用正则表达式或者字符串截取等方式,将需要的内容分离出来
3、编制SQL语句,
最好,呵呵,当然,就是执行SQL了。
如果还有图片,就需要把图片的链接,转换成你自己的链接在存储。
或者只保存图片文件名也行。
在显示的时间设置图片路径之类的
呵呵,希望能够帮到你。
⑷ 网页爬虫抓回的信息,是怎样存放在数据库里
1、抓取、下载网页;
2、分析网页、找出自己想要的信息;
3、入库
举例:一个网页抓取十个字段,先分别做上标记放入缓存,然后执行sql插库
二营长SEO
⑸ java 从网页抽取数据 存入数据库
台风的编号和名称直接在源码中有,但时间和地理位置我只能跟踪到
function totf(tfbh){
location.href( "Typhoon.aspx?id="+tfbh);
}
数据需要从aspx中拿到的,应该是存放到数据库的,页面上是拿不到的
我认为可以通过循环模拟发送请求Typhoon.aspx?id="+XXX,然后通过解析response包的方式可以获得详细的信息
下面一个页面是讲模拟发送请求的
http://tis2005.javaeye.com/blog/195544
希望对你有帮助
我写了一段获得一组数据的代码
//get Typhoon content by param
public static String getTyphoon(String param) {
URL url = null;
try {
url = new URL(param);
} catch (MalformedURLException e) {
e.printStackTrace();
}
HttpURLConnection connection = null;
InputStream is = null;
try {
connection = (HttpURLConnection) url.openConnection();
is = connection.getInputStream();
} catch (IOException e) {
e.printStackTrace();
}
BufferedInputStream bis = new BufferedInputStream(is);
int len = 0;
byte[] buf_all = new byte[0];
try {
while (true) {
byte[] buf1 = new byte[4096];
byte[] buf2 = buf_all;
len = bis.read(buf1);
if(len <= 0){
break;
}
buf_all = new byte[len+buf2.length];
System.array(buf2, 0, buf_all, 0, buf2.length);
System.array(buf1, 0, buf_all, buf2.length, len);
}
} catch (IOException e) {
e.printStackTrace();
}
String content = null;
try {
content = new String(buf_all, "utf-8");
} catch (UnsupportedEncodingException e) {
e.printStackTrace();
}
int startIndex = content.indexOf("var ary0=")+9;
content = content.substring(startIndex);
int endIndex = content.indexOf("var aryyb0=");
content = content.substring(0, endIndex);
return content;
}
得到的结果是这样的:
[['200906','2009-07-19 20:00:00','23.8','109.6','','15','','','260','','','54440','','莫拉菲','Molave','7'],
['200906','2009-07-19 15:00:00','23.5','111','993','15','25','西北西','260','','','54439','','莫拉菲','Molave','7'],
['200906','2009-07-19 14:00:00','23.3','111.2','','18','','','260','','','54438','','莫拉菲','Molave','8'],
['200906','2009-07-19 13:00:00','23.3','111.5','990','18','25','西北西','260','','','54437','','莫拉菲','Molave','8'],
['200906','2009-07-19 12:00:00','23.2','111.8','990','18','25','西北西','260','','','54436','','莫拉菲','Molave','8'],
['200906','2009-07-19 11:00:00','23.2','112.1','987','18','25','西北西','260','','','54435','','莫拉菲','Molave','8'],
['200906','2009-07-19 10:00:00','23.2','112.4','987','18','25','西北西','260','','','54434','','莫拉菲','Molave','8'],
['200906','2009-07-19 09:00:00','23','112.6','987','20','25','西北西','260','','','54433','','莫拉菲','Molave','8'],
['200906','2009-07-19 08:00:00','22.9','112.9','987','20','','','260','','','54432','','莫拉菲','Molave','8'],
['200906','2009-07-19 07:00:00','22.9','113.2','985','23','25','西北西','260','','','54431','','莫拉菲','Molave','9'],
['200906','2009-07-19 06:00:00','22.8','113.4','982','25','25','西北西','260','','','54430','','莫拉菲','Molave','10'],
['200906','2009-07-19 05:00:00','22.7','113.7','980','28','25','西北西','260','','','54429','','莫拉菲','Molave','10'],
['200906','2009-07-19 04:00:00','22.7','114','975','30','25','西北西','260','','','54428','','莫拉菲','Molave','11'],
['200906','2009-07-19 03:00:00','22.7','114.2','975','33','25','西北偏西','260','80','','54426','','莫拉菲','Molave','12'],
['200906','2009-07-19 02:00:00','22.6','114.5','','35','','','260','80','','54425','','莫拉菲','Molave','12'],
['200906','2009-07-19 01:00:00','22.5','114.5','970','35','28','西北西','260','80','','54424','','莫拉菲','Molave','12'],
['200906','2009-07-19 00:00:00','22.5','114.8','965','38','28','西北西','260','80','','54423','','莫拉菲','Molave','13'],
['200906','2009-07-18 23:00:00','22.4','115.1','','38','','','260','80','','54422','','莫拉菲','Molave','13'],
['200906','2009-07-18 22:00:00','22.3','115.5','965','38','25','西北西','260','80','','54421','','莫拉菲','Molave','13'],
['200906','2009-07-18 21:00:00','22.2','115.7','965','38','25','西北西','260','80','','54420','','莫拉菲','Molave','13'],
['200906','2009-07-18 20:00:00','22.2','116','','35','','','260','80','','54419','','莫拉菲','Molave','12'],
['200906','2009-07-18 19:00:00','22.2','116.2','970','35','25','西北偏西','260','80','','54418','','莫拉菲','Molave','12'],
['200906','2009-07-18 18:00:00','22.1','116.5','970','35','25','西北偏西','260','80','','54417','','莫拉菲','Molave','12'],
['200906','2009-07-18 17:00:00','22','116.7','970','35','25','西北西','260','80','','54416','','莫拉菲','Molave','12'],
['200906','2009-07-18 16:00:00','21.9','116.9','970','35','25','西北偏西','260','80','','54415','','莫拉菲','Molave','12'],
['200906','2009-07-18 15:00:00','21.8','117.1','970','35','25','西北偏西','260','80','','54414','','莫拉菲','Molave','12'],
['200906','2009-07-18 14:00:00','21.7','117.2','970','35','25','西北西','260','80','','54413','','莫拉菲','Molave','12'],
['200906','2009-07-18 13:00:00','21.7','117.4','970','35','25','西北西','260','80','','54412','','莫拉菲','Molave','12'],
['200906','2009-07-18 12:00:00','21.6','117.5','975','33','25','西北西','260','80','','54411','','莫拉菲','Molave','12'],
['200906','2009-07-18 11:00:00','21.6','117.7','975','33','25','西北西','260','80','','54410','','莫拉菲','Molave','12'],
['200906','2009-07-18 10:00:00','21.6','117.9','975','33','25','西北西','260','80','','54409','','莫拉菲','Molave','12'],
['200906','2009-07-18 09:00:00','21.5','118.2','975','33','25','西北西','260','80','','54408','','莫拉菲','Molave','12'],
['200906','2009-07-18 08:00:00','21.4','118.3','975','33','25','西北偏西','260','80','','54407','','莫拉菲','Molave','12'],
['200906','2009-07-18 07:00:00','21.4','118.5','975','33','25','西北西','260','80','','54406','','莫拉菲','Molave','12'],
['200906','2009-07-18 06:00:00','21.3','118.7','975','33','25','西北西','260','80','','54405','','莫拉菲','Molave','12'],
['200906','2009-07-18 05:00:00','21.2','119','975','33','','','260','60','','54404','','莫拉菲','Molave','12'],
['200906','2009-07-18 04:00:00','21.2','119.2','978','30','25','西北西','260','60','','54403','','莫拉菲','Molave','11'],
['200906','2009-07-18 03:00:00','21.1','119.4','978','30','25','西北偏西','260','60','','54402','','莫拉菲','Molave','11'],
['200906','2009-07-18 02:00:00','21','119.6','978','30','','','260','60','','54401','','莫拉菲','Molave','11'],
['200906','2009-07-18 01:00:00','21','120.1','978','30','25','西北偏西','260','60','','54400','','莫拉菲','Molave','11'],
['200906','2009-07-18 00:00:00','20.9','120.3','978','30','25','西北偏西','260','60','','54399','','莫拉菲','Molave','11'],
['200906','2009-07-17 23:00:00','20.8','120.5','978','30','20','西北偏西','260','60','','54398','','莫拉菲','Molave','11'],
['200906','2009-07-17 22:00:00','20.7','121','978','30','20','西北偏西','260','60','','54397','','莫拉菲','Molave','11'],
['200906','2009-07-17 21:00:00','20.7','121.2','978','30','20','西北偏西','260','60','','54396','','莫拉菲','Molave','11'],
['200906','2009-07-17 20:00:00','20.6','121.5','978','30','20','西北偏西','260','60','','54395','','莫拉菲','Molave','11'],
['200906','2009-07-17 19:00:00','20.4','121.8','980','28','20','西北西','260','60','','54394','','莫拉菲','Molave','10'],
['200906','2009-07-17 18:00:00','20.3','121.9','980','28','20','西北偏西','260','60','','54393','','莫拉菲','Molave','10'],
['200906','2009-07-17 17:00:00','20.2','122.1','980','28','20','西北偏西','200','50','','54392','','莫拉菲','Molave','10'],
['200906','2009-07-17 14:00:00','19.5','122.7','','25','','','200','50','','54391','','莫拉菲','Molave','10'],
['200906','2009-07-17 11:00:00','18.9','123.3','985','25','15','西北','200','50','','54390','','莫拉菲','Molave','10'],
['200906','2009-07-17 08:00:00','18.6','123.6','994','20','','','100','','','54389','','莫拉菲','Molave','8'],
['200906','2009-07-17 05:00:00','18.4','123.9','996','18','15','西北','100','','','54388','','莫拉菲','Molave','8'],
['200906','2009-07-17 02:00:00','17.9','124.1','996','18','15','西北','50','','','54387','','莫拉菲','Molave','8'],
['200906','2009-07-16 23:00:00','17.6','124.6','996','18','15','西北','','','','54386','','莫拉菲','Molave','8'],
['200906','2009-07-16 20:00:00','17.4','124.7','996','18','','','','','','54385','','莫拉菲','Molave','8']];
再下去字符串的拆分实在是太复杂了,不想写了
使用时只要参数为http://www.wztf121.com/Typhoon.aspx?id=
id后是台风的代码号,写一个循环就可以了
⑹ 如何做一个完整的网站数据获取,并写入到sqlite数据库
将这个
数据库
x.db
放到
手机sd
卡里面,然后
用eclipse
写个
类
基于
sqllite
db
help
的子类
写一些操作数据库的方法,然后
在activity
里面
定义个
listview
,调用
数据库类中的数据显示到list
view
里面,ok
,发布
运行
⑺ 如何快速抓取别人网站内容到我的数据库中
用正则匹配,然后就把匹配到的东西全部插入到自己的数据库里。你看页面的源码,能找出规律写出正则。
⑻ 如何从网页上截取数据并录入数据库
那个你直接用“无敌点击狗”软件就能轻松完成,在无敌点击狗里提供有自动录入数据,自动批量填写输入,点击按键模拟等,很方便的。
⑼ 怎么用VBA或网络爬虫程序抓取网站数据
ForeSpider数据采集系统是天津市前嗅网络科技有限公司自主知识产权的通用性互联网数据采集软件。软件几乎可以采集互联网上所有公开的数据,通过可视化的操作流程,从建表、过滤、采集到入库一步到位。支持正则表达式操作,更有强大的面向对象的脚本语言系统。
台式机单机采集能力可达4000-8000万,日采集能力超过500万。服务器单机集群环境的采集能力可达8亿-16亿,日采集能力超过4000万。并行情况下可支撑百亿以上规模数据链接,堪与网络等搜索引擎系统媲美。
软件特点:
一.通用性:可以抓取互联网上几乎100 %的数据
1.支持用户登录。
2.支持Cookie技术。
3.支持验证码识别。
4.支持HTTPS安全协议。
5.支持OAuth认证。
6.支持POST请求。
7.支持搜索栏的关键词搜索采集。
8.支持JS动态生成页面采集。
9.支持IP代理采集。
10.支持图片采集。
11.支持本地目录采集。
12.内置面向对象的脚本语言系统,配置脚本可以采集几乎100%的互联网信息。
二.高质量数据:精准采集所需数据
1.独立知识产权JS引擎,精准采集。
2.内部集成数据库,数据直接采集入库。
3.内部创建数据表结构,抓取数据后直接存入数据库相应字段。
4.根据dom结构自动过滤无关信息。
5.通过模板配置链接抽取和数据抽取,目标网站的所有可见内容均可采集,智能过滤无关信息。
6.采集前数据可预览采集,随时调整模板配置,提升数据精度和质量。
7.字段的数据支持多种处理方式。
8.支持正则表达式,精准处理数据。
9.支持脚本配置,精确处理字段的数据。
三.高性能:千万级的采集速度
1.C++编写的爬虫,具备绝佳采集性能。
2.支持多线程采集。
3.台式机单机采集能力可达4000-8000万,日采集能力超过500万。
4.服务器单机集群环境的采集能力可达8亿-16亿,日采集能力超过4000万。
5.并行情况下可支撑百亿以上规模数据链接,堪与网络等搜索引擎系统媲美。
6.软件性能稳健,稳定性好。
四.简易高效:节约70%的配置时间
1.完全可视化的配置界面,操作流程顺畅简易。
2.基本不需要计算机基础,代码薄弱人员也可快速上手,降低操作门槛,节省企业爬虫工程师成本。
3.过滤采集入库一步到位,集成表结构配置、链接过滤、字段取值、采集预览、数据入库。
4.数据智能排重。
5.内置浏览器,字段取值直接在浏览器上可视化定位。
五. 数据管理:多次排重
1. 内置数据库,数据采集完毕直接存储入库。
2. 在软件内部创建数据表和数据字段,直接关联数据库。
3. 采集数据时配置数据模板,网页数据直接存入对应数据表的相应字段。
4. 正式采集之前预览采集结果,有问题及时修正配置。
5. 数据表可导出为csv格式,在Excel工作表中浏览。
6. 数据可智能排除,二次清洗过滤。
六. 智能:智能模拟用户和浏览器行为
1.智能模拟浏览器和用户行为,突破反爬虫限制。
2.自动抓取网页的各类参数和下载过程的各类参数。
3.支持动态IP代理加速,智能过滤无效IP代理,提升代理的利用效率和采集质量。
4.支持动态调整数据抓取策略,多种策略让您的数据无需重采,不再担心漏采,数据采集更智能。
5.自动定时采集。
6.设置采集任务条数,自动停止采集。
7.设置文件大小阈值,自动过滤超大文件。
8.自由设置浏览器是否加速,自动过滤页面的flash等无关内容。
9.智能定位字段取值区域。
10.可以根据字符串特征自动定位取值区域。
11.智能识别表格的多值,表格数据可以完美存入相应字段。
七. 优质服务
1.数据采集完全在本地进行,保证数据安全性。
2.提供大量的各个网站配置模板在线下载,用户可以自由导入导出。
3.升级后续不断开发的更多功能。
4.更换2次绑定的计算机。
5.为用户提供各类高端定制化服务,全方位来满足用户的数据需求。
⑽ 求代码实现抓取网页的标题和内容,并写入数据库
你这个就是相当于采集网页的数据,然后把采集到的数据存入自己的数据库,对吧?