由于我需要为搜狗提交做准备,直接读取xml文件容易搞乱自己的大脑,所以写了一个php文件,将所有的xml链接全部提取到txt文件中。
之前的网站已经有18条xml文件了,每个xml文件中有5000条网站的url,所以我现在需要做的是将所有的url全部存放到txt文件中,接下来的提交到搜狗只需要从txt文件中读取url就行。
说的太复杂我自己都懵,直接开始吧。
代码如下:
<?php header('Content-Type:text/html;charset=utf-8'); if(!$_GET['xml']){ die("data error"); }else{ $xmldata =file_get_contents($_GET['xml']); $xmlstring = simplexml_load_string($xmldata,'SimpleXMLElement',LIBXML_NOCDATA); $value_array = json_decode(json_encode($xmlstring),true); $url = []; $fp = fopen('all_siteurl.txt', 'a+'); for ($i =0;$i < count($value_array['url']);$i++){ // echo $value_array['url'][$i]['loc']."<br/>"; fwrite($fp, $value_array['url'][$i]['loc'] . PHP_EOL); } // echo '<pre>'; // print_r($url); fclose($fp); die('success.'); }
执行方式如下:
访问:https://boke.slhq.cn/data/txt.php?xml=https://boke.slhq.cn/sitemap_01.xml
执行的速度很快,5000条也就1s的时间,由于我这个是标号的,所以直接替换后面的01为02则进行下一个xml文件。一直到18结束,这样八九万的数据就全部写入到一个统一的txt文件了,也就是上面代码中的:all_siteurl.txt文件,下一篇文章读取并提交到搜狗也是这个文件。
敬请看我下一篇文章:
好了,这个就到这里了,很简单,代码都是复用性很高的,当做一个小工具使用还是挺不错的。