使用迅雷下載軟件即可查看,具體操作步驟如下: 1、打開迅雷下載軟件,點擊下載功能中的“+”圖標,如下圖所示; 2、點擊“添加BT任務”選項,如下圖所示; 3、找到BT種子所在文件夾,選擇要打開的BT種子,然后點擊“打開”,如下圖所示; 4、選中“url
通過源代碼查看URL,并下載到自己要的東西
方法
用file_get_contents 以get方式獲取內(nèi)容
怎樣設置和修改訪問URL和顯示URL 訪問URL和顯示URL是創(chuàng)意必不可少的組成部分,您在撰寫和編輯創(chuàng)意的同時可以設置和修改訪問URL和顯示URL,具體可參考“怎樣添加和編輯創(chuàng)意”中與URL相關的部分。此外,您還可以為關鍵詞設置訪問URL。在這種情況下,
用fopen打開url, 以get方式獲取內(nèi)容
import java.io.InputStream; import java.net.URL; public class Test { public static void main(String[] args) { URL url; try { url = new URL("http://www.baidu.com"); InputStream in = url.openStream(); System.out.println("連接可用
用file_get_contents函數(shù),以post方式獲取url
桌面右鍵-新建-快捷方式 把你想制作的網(wǎng)址復制進去,下一步,完成 這個就制作完成了
用fsockopen函數(shù)打開url,以get方式獲取完整的數(shù)據(jù),包括header和body
尊敬的迅雷用戶,您好: 您下載完成種子之后才可以看到相應的URL。如圖所示,打開迅雷“已完成”找到該文件,右鍵打開找到復制下載鏈接,這個就是。 更多疑問,歡迎您向迅雷網(wǎng)絡平臺提問。
用fsockopen函數(shù)打開url,以POST方式獲取完整的數(shù)據(jù),包括header和body
PHP中打開URL地址的幾種方法總結,這里的函數(shù)主要用于小偷采集等函數(shù)。1: 用file_get_contents 以get方式獲取內(nèi)容 復制代碼 代碼如下: 示例代碼2: 用fopen打開url, 以get方式獲取內(nèi)容 復制代碼 代碼如下: 示例代碼3:用file_get_contents函數(shù),以
使用curl庫,使用curl庫之前,你可能需要查看一下php.ini,查看是否已經(jīng)打開了curl擴展
function checkeURL(){ var str=form1.txt.value; //在JavaScript中,正則表達式只能使用"/"開頭和結束,不能使用雙引號 var Expression=/http(s)?:////([w-]+.)+[w-]+(/[w- ./?%&=]*)?/; var objExp=new RegExp(Expression); if(str.inde
擴展閱讀,以下內(nèi)容您可能還感興趣。
爬蟲遇到各種不同url怎么爬取
網(wǎng)絡爬蟲是一個自動提取網(wǎng)頁的程序,它為搜索引擎從萬維網(wǎng)上下載網(wǎng)頁,是搜索引擎的重要組成?! 鹘y(tǒng)爬蟲從一個或若干初始網(wǎng)頁的URL開始,獲得初始網(wǎng)頁上的URL,在抓取網(wǎng)頁的過程中,不斷從當前頁面上抽取新的URL放入隊列,直到滿足系統(tǒng)的一定停止條件。對于垂直搜索來說,聚焦爬蟲,即有針對性地爬取特定主題網(wǎng)頁的爬蟲,更為適合?! ∫韵率且粋€使用java實現(xiàn)的簡單爬蟲核心代碼: publicvoidcrawl()throwsThrowable{while(continueCrawling()){CrawlerUrlurl=getNextUrl();//獲取待爬取隊列中的下一個URLif(url!=null){printCrawlInfo();Stringcontent=getContent(url);//獲取URL的文本信息//聚焦爬蟲只爬取與主題內(nèi)容相關的網(wǎng)頁,這里采用正則匹配簡單處理if(isContentRelevant(content,this.regexpSearchPattern)){saveContent(url,content);//保存網(wǎng)頁至本地//獲取網(wǎng)頁內(nèi)容中的鏈接,并放入待爬取隊列中CollectionurlStrings=extractUrls(content,url);addUrlsToUrlQueue(url,urlStrings);}else{System.out.println(url+"isnotrelevantignoring");}//延時防止被對方屏蔽Thread.sleep(this.delayBetweenUrls);}}closeOutputStream();}privateCrawlerUrlgetNextUrl()throwsThrowable{CrawlerUrlnextUrl=null;while((nextUrl==null)&&(!urlQueue.isEmpty())){CrawlerUrlcrawlerUrl=this.urlQueue.remove();//doWeHavePermissionToVisit:是否有權限訪問該URL,友好的爬蟲會根據(jù)網(wǎng)站提供的"Robot.txt"中配置的規(guī)則進行爬取//isUrlAlreadyVisited:URL是否訪問過,大型的搜索引擎往往采用BloomFilter進行排重,這里簡單使用HashMap//isDepthAcceptable:是否達到指定的深度上限。爬蟲一般采取廣度優(yōu)先的方式。一些網(wǎng)站會構建爬蟲陷阱(自動生成一些無效鏈接使爬蟲陷入死循環(huán)),采用深度*加以避免if(doWeHavePermissionToVisit(crawlerUrl)&&(!isUrlAlreadyVisited(crawlerUrl))&&isDepthAcceptable(crawlerUrl)){nextUrl=crawlerUrl;//System.out.println("Nexturltobevisitedis"+nextUrl);}}returnnextUrl;}privateStringgetContent(CrawlerUrlurl)throwsThrowable{//HttpClient4.1的調用與之前的方式不同HttpClientclient=newDefaultHttpClient();HttpGethttpGet=newHttpGet(url.getUrlString());StringBufferstrBuf=newStringBuffer();HttpResponseresponse=client.execute(httpGet);if(HttpStatus.SC_OK==response.getStatusLine().getStatusCode()){HttpEntityentity=response.getEntity();if(entity!=null){BufferedReaderreader=newBufferedReader(newInputStreamReader(entity.getContent(),"UTF-8"));Stringline=null;if(entity.getContentLength()>0){strBuf=newStringBuffer((int)entity.getContentLength());while((line=reader.readLine())!=null){strBuf.append(line);}}}if(entity!=null){nsumeContent();}}//將url標記為已訪問markUrlAsVisited(url);returnstrBuf.toString();}publicstaticbooleanisContentRelevant(Stringcontent,PatternregexpPattern){booleanretValue=false;if(content!=null){//是否符合正則表達式的條件Matcherm=regexpPattern.matcher(content.toLowerCase());retValue=m.find();}returnretValue;}publicListextractUrls(Stringtext,CrawlerUrlcrawlerUrl){MapurlMap=newHashMap();extractHttpUrls(urlMap,text);extractRelativeUrls(urlMap,text,crawlerUrl);returnnewArrayList(urlMap.keySet());}privatevoidextractHttpUrls(MapurlMap,Stringtext){Matcherm=(text);while(m.find()){Stringurl=m.group();String[]terms=url.split("ahref=\"");for(Stringterm:terms){//System.out.println("Term="+term);if(term.startsWith("http")){intindex=term.indexOf("\"");if(index>0){term=term.substring(0,index);}urlMap.put(term,term);System.out.println("Hyperlink:"+term);}}}}privatevoidextractRelativeUrls(MapurlMap,Stringtext,CrawlerUrlcrawlerUrl){Matcherm=relativeRegexp.matcher(text);URLtextURL=crawlerUrl.getURL();Stringhost=textURL.getHost();while(m.find()){Stringurl=m.group();String[]terms=url.split("ahref=\"");for(Stringterm:terms){if(term.startsWith("/")){intindex=term.indexOf("\"");if(index>0){term=term.substring(0,index);}Strings=//"+host+term;urlMap.put(s,s);System.out.println("Relativeurl:"+s);}}}}publicstaticvoidmain(String[]args){try{Stringurl="";QueueurlQueue=newLinkedList();Stringregexp="java";urlQueue.add(newCrawlerUrl(url,0));NaiveCrawlercrawler=newNaiveCrawler(urlQueue,100,5,1000L,regexp);//booleanallowCrawl=crawler.areWeAllowedToVisit(url);//System.out.println("Allowedtocrawl:"+url+""+//allowCrawl);crawler.crawl();}catch(Throwablet){System.out.println(t.toString());t.printStackTrace();}}本回答被提問者采納
求問用Java判斷一個URL是否有效的兩種方法
url = null;}}}
方法一使用java.net 下的URL類來實現(xiàn),URL 是統(tǒng)一資源標識符的引用,一個URL實例代表著一個url的引用,然后使用了URL中的的openStream()方法。
方法二:
import java.net.HttpURLConnection;
import java.net.URL;/*** 文件名稱為:URLAvailability.java
* 文件功能簡述: 描述一個URL地址是否有效
* @author Jason
private static URL url;
private static HttpURLConnection con;
private static int state = -1;/*** 功能:檢測當前URL是否可連接或是否有效,
* 描述:最多連接網(wǎng)絡 5 次, 如果 5 次都不成功,視為該地址不可用
* @param urlStr 指定URL網(wǎng)絡地址
* @return URL*/public synchronized URL isConnect(String urlStr) {
int counts = 0;
if (urlStr == null || urlStr.length() <= 0) {
return null;}while (counts < 5) {try {url = new URL(urlStr);
con = (HttpURLConnection) url.openConnection();
state = con.getResponseCode();
System.out.println(counts +"= "+state);
if (state == 200) {
System.out.println("URL可用!");}break;}catch (Exception ex) {counts++;System.out.println("URL不可用,連接第 "+counts+" 次");
urlStr = null;continue;}}return url;}public static void main(String[] args) {
URLAvailability u=new URLAvailability();
方法二使用了java.net 下的URL和HttpURLConnection兩個類來實現(xiàn)。
用Java判斷一個URL是否有效的兩種方法
路徑:
C:\Program Files\Java
D:\Program Files\Java
D:\Java
安裝后可出現(xiàn)jre和jdk兩個目錄,其中jre為運行環(huán)境,jdk為開發(fā)環(huán)境。
配置JDK環(huán)境變量
右鍵我的電腦,選擇屬性,選擇高級選項卡,點擊環(huán)境變量進入環(huán)境變量設置頁,進行JVM環(huán)境變量的設置。
建立系統(tǒng)變量:JAVA_HOME=D:\Program Files\Java\jdk1.6.0_07;
建立系統(tǒng)變量:CLASSPATH=.;(逗號+分號);
編輯path系統(tǒng)變量:在最前面加上%JAVA_HOME%\bin;(分號)。
PHP判斷一個遠程url是否有效的幾種方法
需要判斷遠程URL是否有效,遠程url包括遠程圖片,網(wǎng)頁,視頻等等元素,收集了多種方法,大家可以根據(jù)需要選擇。
解決辦法:
使用PHP解決
使用file_get_contents函數(shù),不過優(yōu)缺點如果url無法訪問,會出現(xiàn)終止程序問題
使用curl返回,然后判斷是否正確執(zhí)行
使用get_headers函數(shù),根據(jù)HTTP返回值查看是否有200
使用js解決:
使用原生的js函數(shù)ActiveXObject,僅支持ie內(nèi)核的瀏覽器
使用jq擴展
像這種url鏈接怎么下載?
viewpoint_index.asp?SortId=1
這個就是跳轉的相對地址!
聲明:本網(wǎng)頁內(nèi)容旨在傳播知識,若有侵權等問題請及時與本網(wǎng)聯(lián)系,我們將在第一時間刪除處理。TEL:177 7030 7066 E-MAIL:11247931@qq.com