解读PHP如何使用 CURL 同步抓取多个网页_PHP教程
教程Tag:暂无Tag,欢迎添加,赚取U币!
推荐:浅谈PHP 闭包特性在实际应用中的问题原文链接: http://justafewlines.com/2009/10/whats-wrong-with-php-closures/ PHP5.3 新版本跟随了很多新特性, 其中比较惹眼的特性之一就是支持了闭包。那么以后,我们也可以和那帮写 Ruby、Javascript 等等高科技语言的家伙们一样,写出非常酷的代码吗?
一般CURL 抓网页的方法, 是一页一页抓, 假设要抓 4页, 所费时间各别是 5,10,7,5 秒, 那全部总合所花的时间就是 5 + 10 + 7 + 5 = 27 秒。若能同时间去抓取多个网页, 所花费的时间 5,10,7,5 秒, 全部总合所花的时间是 10 秒。(花费最多时间的秒数)于JavaScript 可使用 AJAX 的 async(YAHOO.util.Connect.asyncRequest)来达成, 于 PHP 可以用 CURL 来达成此 Multi-Threading 的效果。程序(async.php)
以下为引用的内容:
|
使用
以下为引用的内容: <?php $urls = array('http://example1.com', 'http://example2.com'); print_r(async_get_url($urls)); // [0] => example1, [1] => example2 ?> |
测试
sleep.php # 看时间延长取得的效果
以下为引用的内容: <?php sleep(intval($_GET['time'])); echo intval($_GET['time']); ?> |
以下为引用的内容: <?php $url_array = array( 'http://example.com/sleep.php?time=5', 'http://example.com/sleep.php?time=10', 'http://example.com/sleep.php?time=7', 'http://example.com/sleep.php?time=5', ); print_r(async_get_url($url_array)); // 总花费时间会是 10 秒, 并印出 [0] => 5, [1] => 10, [2] => 7, [3] => 5 ?> |
分享:解说PHP中插件机制的一种实现方案这篇文章的出发点是我对插件机制的理解,及其在PHP中的实现。此方案仅是插件机制在PHP中的实现方案之一,写下来和大家分享,欢迎大家一起讨论。 插件,亦即Plug-in,是指一类特定的功能模块(通常由第三方开发者实现),它的特点是:当你需要它的时候激活它
相关PHP教程:
- 相关链接:
- 教程说明:
PHP教程-解读PHP如何使用 CURL 同步抓取多个网页。