當前位置:首頁 » 凈水方式 » EDI宕機

EDI宕機

發布時間: 2020-12-15 18:05:32

⑴ linux matlab 死機

你什麼發行版? 怎麼連openGL庫都沒法用?選擇一個較新的發行版再嘗試.我的OPENSUSE 再正常不過了 R2008A MATLAB

⑵ Linux系統總死機,報錯double fault:

備份一下重裝吧

⑶ 什麼是伺服器加速技術

由於用戶急劇增長,獲取信息的速度快慢已經成為制約互聯網發展的重要因素。尤其隨著電子商務的迅速發展,企業的信息中心已經從側重計算與數據處理的計算中心和側重網路與數據通訊的網路中心發展成為一個將計算中心與網路中心功能平衡優化的集成一體的數據中心。作為企業電子商務網路的基礎核心,數據中心將匯集高性能計算、數據通訊、語音通訊等處理功能於一體,成為支持企業未來電子商務系統應用的必然平台。

但是,作為企業網的心臟,數據中心面臨著眾多的挑戰。擴展性、靈活性、高性能、可靠性、高密度和安全性無一不是數據中心不可或缺的要求,尤其是在數據流急劇增長的時候還要進行持續穩定的運行。很難想像用戶會在屢次遇到「Server Too Busy」後還能再次訪問這個網站;更難以想像正在進行信用卡支付時遇到掉線會有多麼嚴重的後果。那麼,如何解決這個瓶頸問題呢?如何才能切實提高網路的服務質量呢?

顯然,傳統的網路結構已經不能滿足這種高質量的需求。在僅靠不斷增加帶寬的方式提高訪問速度收效甚微的情況下,想切實提高網路服務質量,就需要在現有網路層次結構中專門增加一層,以專門用於提高網路的響應時間。

目前這種用於加速互聯網路的產品有許多,代表技術有負載均衡、高速緩存、SSL/XML加速、流量與帶寬管理等。目前,此系列產品已經越來越普遍地被各數據中心、ISP、企業網站使用。他們往往分布在應用伺服器和路由器/交換機之間,有人稱之為「前端基礎設施」。

所有這些技術都能改善網路速度、提高服務質量,但機理不同,適用的范圍也不盡相同。以下詳細介紹各個技術的特點和適用范圍。

負載均衡技術

現在互聯網上有多少客戶?十分鍾後客戶數目會增長嗎?這些問題恐怕誰也回答不了。互聯網的快速增長已經使網路伺服器面對的訪問數量大大增加並且更加不可預知。如今,伺服器必須具備提供大量並發訪問服務的能力,其處理能力和I/O能力已經成為提供服務的瓶頸。如果客戶的增多導致通信量超出了伺服器能承受的范圍,那麼其結果必然是——宕機。

顯然,單台伺服器有限的性能不可能解決這個問題,一台普通伺服器的處理能力只能達到每秒幾萬個到幾十萬個請求,無法在一秒鍾內處理上百萬個甚至更多的請求。但若能將10台這樣的伺服器組成一個系統,並通過軟體技術將所有請求平均分配給所有伺服器,那麼這個系統就完全擁有每秒鍾處理幾百萬個甚至更多請求的能力。這就是負載均衡最初的基本設計思想。

最早的負載均衡技術是通過DNS來實現的,在DNS中為多個地址配置同一個名字,因而查詢這個名字的客戶機將得到其中一個地址,從而使得不同的客戶訪問不同的伺服器,達到負載均衡的目的。DNS負載均衡是一種簡單而有效的方法,但是它不能區分伺服器的差異,也不能反映伺服器的當前運行狀態。

其實,這種負載均衡的基本設計思想只能算是負載均衡技術的最初應用。現代負載均衡技術除了可以做到合理、平均、實時地均衡系統負載外,還能夠確保系統正常運行的高可用性和高可靠性。

負載均衡服務能夠平衡伺服器群中所有的伺服器和應用之間的通信負載,根據實時響應時間進行判斷,將任務交由負載最輕的伺服器來處理,以實現真正的智能通信管理和最佳的伺服器群性能。

假設每個伺服器能響應的請求為每秒10萬個。如果不採用負載均衡,那麼該系統就只能達到每秒10萬個的響應,即使採用三台伺服器,也有可能在不到每秒30萬個響應的時候就會出現某台伺服器由於訪問量過大而宕機;如果某台伺服器出現故障,則可能導致數萬個請求不能得到正確的響應。但如果採用負載均衡,不僅當伺服器出現故障時可以自動將指向該伺服器上的響應分擔到其他伺服器,還可以在數據量不太大時也將任務分配到各個伺服器中,避免出現有些伺服器數據量很小而有的已因數據量接近極限導致性能急劇下降的現象。如果數據量超出了伺服器的響應能力,只需增加伺服器數目就可以平滑升級。也就是說,負載均衡技術不僅可以維持網路系統中負載的均衡分配,還能夠維護網路系統的高可用性運行,因而是保證網路系統高性能的重要技術。

現代負載均衡技術通常操作於網路的第四層或第七層。負載均衡器可以根據實際的響應時間制定優先順序交付決策,從而實現高性能、智能化流量管理,達到最佳的伺服器群性能。採用第七層應用控制還可以減少通信高峰期的錯誤訊息,因為差錯控制和流量管理技術可以偵測到一些錯誤信息並透明地將會話重定向到另一個伺服器,使用戶順利地進行使用。例如,圖一中伺服器A不可用或者資料庫出現錯誤,錯誤信息將會返回到負載均衡器上,然後會將客戶的訪問指向伺服器B或者將消息重放到其他資料庫中去,整個過程對用戶是透明的。

由於採用了負載均衡技術,自動故障恢復得以實現,服務的時間可以延長,24×7可靠性和持續運行成為可能。另外,負載均衡器一般也支持路徑外返回模式,即繞過流量分配器,為那些焦急等待大量數據文件請求響應的客戶提供更快的響應時間。

在最新的負載均衡產品中,智能化越來越明顯。一些智能化的負載均衡器能夠偵測到像資料庫錯誤、伺服器不可用等信息,從而採取措施使會話恢復和重定向伺服器使電子商務能夠得以順利進行。多址負載均衡器可以對客戶發來的訪問請求進行解析,計算出最佳地址,然後將該地址返回客戶,使客戶自動連接到對其請求來說最佳的數據中心。

負載均衡技術解決了出現大流量數據時伺服器的智能化分配,但統計發現,在網路應用的需求中存在著許多冗餘的內容,這些重復的需求佔用了大量的網路資源。具體地說,在互聯網上80%的用戶都在訪問20%的熱門網站,而在這些熱門網站中又有一些熱門的內容吸引了絕大多數訪問者的注意;對於企業區域網而言,員工所發出的網路指令也存在著很大的重復。以上的情況造成了計算機執行的指令具有很高的重復性,這是僅用負載均衡技術不能解決的。

緩存技術就是基於以上的情況產生的。緩存設備會監視Web請求,檢索它們,然後存儲為它的對象。後來的用戶將直接從本地的緩存設備而不是真正的目標站點獲取該對象,從而達到提高響應性能,減少帶寬壓力的目的。

有效放置的緩存設備可以及時向最終用戶傳送Web網頁,提高Web站點的效率,減少WAN訪問費用,甚至可以建立起一道抵禦外部黑客攻擊的安全防線。因此,不僅對於那些能夠迅速地從緩存技術節省下來的費用中盈利的ISP和電信公司,而且對於企業而言,緩存技術也同樣具有著越來越大的吸引力。

緩存技術的基本概念是:由於從網路的邊緣索取對象比從Internet中索取的速度更快、費用更低廉,因此將Web數據靠近最終用戶保存,可以使服務提供商保留帶寬,節省費用。緩存設備工作在比路由器更高的層次上,能夠把用戶所要訪問的網路信息「抓」到本地,在最短的時間內將信息連續、完整、實時地傳遞給最終用戶,不僅大大縮短了訪問響應時間,而且極大地提高了高峰時間網路所能承受的訪問容量。可以說,緩存技術降低了目前廣域網通訊帶寬成本,是提升互聯網訪問性能的最好方法。

早期的緩存技術可用來節省帶寬以減少網路擁塞,但它們不可避免地引起了以下問題:一是用戶有可能得不到網頁的及時更新,因為緩存區不可能自動跟蹤網頁的變化;二是為得到最新網頁,用戶訪問時需要首先查詢真正的伺服器上的內容,這將導致訪問速度的降低。

目前使用最多的緩存技術產品是Web Cache。一提Cache,大家自然會想到計算機裡面的高速緩存,實際上,Web Cache的功用遠不止存儲和提供數據這么簡單。Cache是作為基於軟體的代理伺服器的一部分或專門的硬體(appliances,容器)出現的,本文主要談後者。與前者相比,它可以提供更好的性能。不同的生產商提供的產品在許多方面存在著差異,其中包括配置和設置的難易程度、使用的協議、安全性能、遠程管理、能夠用於緩存的 Web傳輸的類型以及價格、售後技術支持等。

Cache設備可在用戶端儲存最常瀏覽的網頁內容,隨時提供給用戶存取,還可同時監控內容的來源,以測知網頁是否已更新,並同步更新儲存的內容。一般來說,在配置了互聯網加速設備後,由於很多用戶瀏覽的內容可以從高速緩存中直接調出,網路效能會有明顯的大幅提升:網頁響應時間最多可以減少90%以上;頻寬使用率將增加30%~50%。

SSL/XML加速

解決了伺服器分配和緩存的問題之後,在網路傳輸的內容上,由於SSL和XML仍佔用相當的伺服器資源,仍然會影響網路的傳輸速度。它們能加速嗎?

SSL(加密套接字協議層)是一種應用極為廣泛的WEB信息安全傳送協議。最初由Netscape開發以提供Internet上的安全連接和傳送,目前,98%的Web上的安全傳送都運用SSL。SSL已經成了安全互聯網交易中數據加密的工業標准,採用SSL的網站在1998年和1999年間增加了兩倍。由於SSL運用加密演算法和密碼,其加密/解密過程需大量佔用伺服器的CPU資源,使CPU利用率接近100%,從而大大降低了伺服器性能。當網路用戶大大增加後,網路性能將急劇降低,很可能用戶會因網路響應欠佳而失去耐心離開網站。

電子商務時代,伺服器反應速度至關重要,為根本解決SSL給伺服器運行帶來的不利影響,必須採用專門設備處理SSL協議,以使伺服器CPU從繁重的加密/解密過程中解脫出來。

當使用SSL加速器時,所有非SSL數據流可以未受任何改變地通過加速器;但是當由SSL加密過的數據流經過SSL加速器時,進入的SSL數據流被解密並干凈地傳給伺服器,而外流的SSL數據流被加密並傳向客戶。這樣伺服器只需簡單地處理SSL請求,原本消耗眾多計算資源的HTTP/SSL現在被專用的 SSL加速設備負責處理。使用了SSL加速器之後,系統每秒處理的安全連接數可由原來幾十個增長到數百個。當然,如果需要最大限度地利用伺服器,也可以卸載SSL處理工作。

此外,SSL加速器可以實現靈活的動態堆疊,實行自動的「任務分擔」以得到最大的擴展能力。一般SSL加速器可以自動與所有類型的伺服器協同運行,並可以支持一台或多台伺服器。

XML(擴展標識語言)是SGML(標准通用標識語言)的一個子集,它已經快速取代EDI(電子數據交換)成為B2B網上交易的統一格式。事實已經證明,XML所採用的標准技術最適合Web開發。XML支持結構化的數據,可以更詳細地定義某個數據對象的數據結構,例如,描述產品,詳細定義該產品的生產廠、產品名、產品號、產地等信息,這種定義不僅為標記該產品提供方便,而且這種XML數據很容易按生產廠、產品名等排序,使用戶的查詢變得更方便。

XML加速器可以將XML交易進行分類,如按照商業合作夥伴名稱或類型、交易價值或數量以及時刻或時區為依據,配置業務優先順序,從而提高響應速度,解放伺服器資源,更快地處理交易。

智能化的XML加速器可以使用多變數分類包括與、或,以滿足復雜業務的優先順序要求。還有的XML加速器自身提供伺服器的負載均衡,以達到快速、安全的目的。

帶寬的重要性對網路來說不言而喻。但在實際應用中,由於眾多數據流同時使用帶寬卻無法按照任務的關鍵性和時間的敏感性分級,所以關鍵應用帶寬往往未被高效使用,帶寬的使用效率低下,成為網路傳輸的瓶頸。

例如,與Web瀏覽相比,電子郵件的任務關鍵性要高一些,但對時間的敏感性並沒有過高的要求;而實時的游戲等,對時間非常敏感,但任務的關鍵性並不大。如果對這些數據流不加分析地傳輸,必然會影響網路傳輸的效率。

帶寬管理器使用戶可以高效地管理網路通信、提供差別服務並控制廣域網路帶寬分配。由於使用帶寬管理器可以賦予帶寬優先順序,因此可以加大關鍵業務的帶寬,限制非關鍵或大容量應用的帶寬,提高眾多應用和服務的功能。

帶寬管理器適用於高速區域網和廣域網的交界處,是所有數據流的唯一路徑。它根據定製的帶寬計劃進行網路分析,進行精確的流量控制,智能地將通信進行分類。在大容量數據流的情況下,關鍵應用得以保證,帶寬獲得高效應用。由於各種應用、多種服務級別都能得到高質量服務,帶寬使用效率達到了最大化。

帶寬管理器不僅可以分析網路通信狀態,還可以提供網路報告,使服務提供商可以根據具體數字進行容量規劃並評估配置變化所產生的影響。

值得說明的是,以上談到的負載均衡、高速緩存、SSL加速和帶寬管理等各項技術既可以單獨使用,也可以相互結合,或者集成到交換機或伺服器中去。目前許多廠家已經生產了集合兩種或兩種以上加速技術的產品。也許幾年以後,我們可以看到更為集成的「互聯網加速器」或者已經集成所有加速技術的新型互聯網伺服器

⑷ was文件用什麼方式打開

WAS是WebSphere Application Server的簡稱。
基於Java的應用伺服器, 整合企業數據和事務以用於動態電子商務環境。 包括高級集群能力和Web服務特性。
WebSphere®Appl icat ion Server V6.1是IBM®WebSphere軟體平台的基礎。 它提供了面向服務架構(SOA)所需的安全、 可伸縮、 富有彈性的應用程序基礎設施。

⑸ EDIUOS有時輸出MPEG2格式時會死機,電腦配置屬於民用中高端機器,求大神相助

最好能找到死機前的機器狀態信息。如系統日誌,EDIUOS日誌,出錯時資源使用狀態等信息。
實在沒辦法就換內存條,換硬碟,換機器,換軟體版本等置換法查原因。

⑹ 話說質量效應3中的EDI要是死機了會怎樣······

諾曼底號一切需要通過計算機完成的操作都將無法運行:隱身系統失效(後果就是在回接近祭斯無畏艦答時被偵查到並被一炮秒掉),熱儲藏功能失效(質量效應網路里有說過,這會導致質量力場產生的大量熱能烤死船員),飛船規避機動能力嚴重下降(變成純人手操控一個怎麼復雜的太空船,諾曼底一號就是因為沒有EDI才在二代開始被爆掉!),主炮作廢(質量效應中戰艦都是在上萬公里處對轟的,何況諾曼底用的是旗艦級主炮的縮小版,人工操作難度可想而知)

⑺ 求集群管理的相關知識!

集群技術案例介紹和具體操作

集群技術案例介紹和具體操作
中國科學院西安網路中心 中科紅旗linux培訓認證中心
集群技術
1.1 什麼是集群
簡單的說,集群(cluster)就是一組計算機,它們作為一個整體向用戶提
供一組網路資源。這些單個的計算機系統就是集群的節點(node)。一個理想的
集群是,用戶從來不會意識到集群系統底層的節點,在他/她們看來,集群是一
個系統,而非多個計算機系統。並且集群系統的管理員可以隨意增加和刪改集群
系統的節點。
1.2 為什麼需要集群
集群並不是一個全新的概念,其實早在七十年代計算機廠商和研究機構就
開始了對集群系統的研究和開發。由於主要用於科學工程計算,所以這些系統並
不為大家所熟知。直到Linux集群的出現,集群的概念才得以廣為傳播。
對集群的研究起源於集群系統良好的性能可擴展性(scalability)。提高CPU
主頻和匯流排帶寬是最初提供計算機性能的主要手段。但是這一手段對系統性能的
提供是有限的。接著人們通過增加CPU個數和內存容量來提高性能,於是出現了
向量機,對稱多處理機(SMP)等。但是當CPU的個數超過某一閾值,象SMP這些
多處理機系統的可擴展性就變的極差。主要瓶頸在於CPU訪問內存的帶寬並不能
隨著CPU個數的增加而有效增長。與SMP相反,集群系統的性能隨著CPU個數的
增加幾乎是線性變化的。圖1顯示了這中情況。
圖1. 幾種計算機系統的可擴展性
對於關鍵業務,停機通常是災難性的。因為停機帶來的損失也是巨大的。下
面的統計數字列舉了不同類型企業應用系統停機所帶來的損失。
中科紅旗linux技術支持服務中心---西安站 http://linux.xab.ac.cn
中國科學院西安網路中心 中科紅旗linux培訓認證中心
應用系統每分鍾損失(美元)
呼叫中心(Call Center) 27000
企業資源計劃(ERP)系統13000
供應鏈管理(SCM)系統11000
電子商務(eCommerce)系統10000
客戶服務(Customer Service Center)系統27000
圖2:停機給企業帶來的損失
隨著企業越來越依賴於信息技術,由於系統停機而帶來的損失也越拉越大。
集群系統的優點並不僅在於此。下面列舉了集群系統的主要優點:
高可擴展性:如上所述。
高可用性:集群中的一個節點失效,它的任務可傳遞給其他節點。可以有效防止單點失效。
高性能:負載平衡集群允許系統同時接入更多的用戶。
高性價比:可以採用廉價的符合工業標準的硬體構造高性能的系統。
2.1 集群系統的分類
雖然,根據集群系統的不同特徵可以有多種分類方法,但是一般把集群系統分為兩類:
(1)、高可用(High Availability)集群,簡稱HA集群。
這類集群致力於提供高度可靠的服務。就是利用集群系統的容錯性對外提供7*24小時不間
斷的服務,如高可用的文件伺服器、資料庫服務等關鍵應用。
目前已經有在Linux下的高可用集群,如Linux HA項目。
負載均衡集群:使任務可以在集群中盡可能平均地分攤不同的計算機進行處理,充分利
用集群的處理能力,提高對任務的處理效率。
在實際應用中這幾種集群類型可能會混合使用,以提供更加高效穩定的服務。如在一個使
用的網路流量負載均衡集群中,就會包含高可用的網路文件系統、高可用的網路服務。
(2)、性能計算(High Perfermance Computing)集群,簡稱HPC集群,也稱為科學計算
集群。
在這種集群上運行的是專門開發的並行應用程序,它可以把一個問題的數據分布到多
台的計算機上,利用這些計算機的共同資源來完成計算任務,從而可以解決單機不能勝任
的工作(如問題規模太大,單機計算速度太慢)。
這類集群致力於提供單個計算機所不能提供的強大的計算能力。如天氣預報、石油勘探與油
藏模擬、分子模擬、生物計算等。這些應用通常在並行通訊環境MPI、PVM等中開發,由於MPI
中科紅旗linux技術支持服務中心---西安站 http://linux.xab.ac.cn
中國科學院西安網路中心 中科紅旗linux培訓認證中心
是目前的標准,故現在多使用MPI為並行環境。
比較有名的集群Beowulf就是一種科學計算集群項目。
3、集群系統轉發方式和調度演算法
3.1轉發方式
目前LVS主要有三種請求轉發方式和八種調度演算法。根據請求轉發方式的不同,所構
架集群的網路拓撲、安裝方式、性能表現也各不相同。用LVS主要可以架構三種形式的集群,
分別是LVS/NAT、LVS/TUN和LVS/DR,可以根據需要選擇其中一種。
(1)、網路地址轉換(LVS/NAT)
中科紅旗linux技術支持服務中心---西安站 http://linux.xab.ac.cn
中國科學院西安網路中心 中科紅旗linux培訓認證中心
(2)、直接路由
(3)、IP隧道
中科紅旗linux技術支持服務中心---西安站 http://linux.xab.ac.cn
中國科學院西安網路中心 中科紅旗linux培訓認證中心
三種轉發方式的比較:
3.2、調度演算法
在選定轉發方式的情況下,採用哪種調度演算法將決定整個負載均衡的性能表現,不同
的演算法適用於不同的應用場合,有時可能需要針對特殊場合,自行設計調度演算法。LVS的算
法是逐漸豐富起來的,最初LVS只提供4種調度演算法,後來發展到以下八種:
1.輪叫調度(Round Robin)
調度器通過「輪叫」調度演算法將外部請求按順序輪流分配到集群中的真實伺服器上,它均
等地對待每一台伺服器,而不管伺服器上實際的連接數和系統負載。
2.加權輪叫(Weighted Round Robin)
調度器通過「加權輪叫」調度演算法根據真實伺服器的不同處理能力來調度訪問請求。這樣
可以保證處理能力強的伺服器能處理更多的訪問流量。調度器可以自動詢問真實伺服器的
負載情況,並動態地調整其權值。
3.最少鏈接(Least Connections)
調度器通過「最少連接」調度演算法動態地將網路請求調度到已建立的鏈接數最少的伺服器
上。如果集群系統的真實伺服器具有相近的系統性能,採用「最小連接」調度演算法可以較
好地均衡負載。
4.加權最少鏈接(Weighted Least Connections)
在集群系統中的伺服器性能差異較大的情況下,調度器採用「加權最少鏈接」調度演算法優
中科紅旗linux技術支持服務中心---西安站 http://linux.xab.ac.cn
中國科學院西安網路中心 中科紅旗linux培訓認證中心
化負載均衡性能,具有較高權值的伺服器將承受較大比例的活動連接負載。調度器可以自
動詢問真實伺服器的負載情況,並動態地調整其權值。
5.基於局部性的最少鏈接(Locality-Based Least Connections)
「基於局部性的最少鏈接」調度演算法是針對目標IP地址的負載均衡,目前主要用於Cache
集群系統。該演算法根據請求的目標IP地址找出該目標IP地址最近使用的伺服器,若該服務
器是可用的且沒有超載,將請求發送到該伺服器;若伺服器不存在,或者該伺服器超載且
有伺服器處於一半的工作負載,則用「最少鏈接」的原則選出一個可用的伺服器,將請求
發送到該伺服器。
6. 帶復制的基於局部性最少鏈接( Locality-Based Least Connections with
Replication)
「帶復制的基於局部性最少鏈接」調度演算法也是針對目標IP地址的負載均衡,目前主要
用於Cache集群系統。它與LBLC演算法的不同之處是它要維護從一個目標IP地址到一組服務
器的映射,而LBLC演算法維護從一個目標IP地址到一台伺服器的映射。該演算法根據請求的目
標IP地址找出該目標IP地址對應的伺服器組,按「最小連接」原則從伺服器組中選出一
台伺服器,若伺服器沒有超載,將請求發送到該伺服器;若伺服器超載,則按「最小連接
」原則從這個集群中選出一台伺服器,將該伺服器加入到伺服器組中,將請求發送到該服
務器。同時,當該伺服器組有一段時間沒有被修改,將最忙的伺服器從伺服器組中刪除,
以降低復制的程度。
7.目標地址散列(Destination Hashing)
「目標地址散列」調度演算法根據請求的目標IP地址,作為散列鍵(Hash Key)從靜態分
配的散列表找出對應的伺服器,若該伺服器是可用的且未超載,將請求發送到該伺服器,
否則返回空。
8.源地址散列(Source Hashing)
「源地址散列」調度演算法根據請求的源IP地址,作為散列鍵(Hash Key)從靜態分配的
散列表找出對應的伺服器,若該伺服器是可用的且未超載,將請求發送到該伺服器,否則
返回空。
了解這些演算法原理能夠在特定的應用場合選擇最適合的調度演算法,從而盡可能地保持
Real Server的最佳利用性。當然也可以自行開發演算法,不過這已超出本文范圍,請參考有
關演算法原理的資料。
4.1、什麼是高可用性
計算機系統的可用性(availability)是通過系統的可靠性(reliability)和可維護性
(maintainability)來度量的。工程上通常用平均無故障時間(MTTF)來度量系統的可靠性,
用平均維修時間(MTTR)來度量系統的可維護性。於是可用性被定義為:
中科紅旗linux技術支持服務中心---西安站 http://linux.xab.ac.cn
中國科學院西安網路中心 中科紅旗linux培訓認證中心
MTTF/(MTTF+MTTR)*100%
業界根據可用性把計算機系統分為如下幾類:
可用比例
(Percent
Availability)
年停機時間
(downtime/year
)
可用性分類
99.5 3.7天
常規系統
(Conventional)
99.9 8.8小時可用系統(Available)
99.99 52.6分鍾
高可用系統(Highly
Available)
99.999 5.3分鍾Fault Resilient
99.9999 32秒Fault Tolerant
為了實現集群系統的高可用性,提高系統的高可性,需要在集群中建立冗餘機制。一個功
能全面的集群機構如下圖所示
中科紅旗linux技術支持服務中心---西安站 http://linux.xab.ac.cn
中國科學院西安網路中心 中科紅旗linux培訓認證中心
負載均衡伺服器的高可用性
為了屏蔽負載均衡伺服器的失效,需要建立一個備份機。主伺服器和備份機上都運行
High Availability監控程序,通過傳送諸如「I am alive」這樣的信息來監控對方的運
行狀況。當備份機不能在一定的時間內收到這樣的信息時,它就接管主伺服器的服務IP並
繼續提供服務;當備份管理器又從主管理器收到「I am alive」這樣的信息是,它就釋放
服務IP地址,這樣的主管理器就開開始再次進行集群管理的工作了。為在住伺服器失效的
情況下系統能正常工作,我們在主、備份機之間實現負載集群系統配置信息的同步與備份,
保持二者系統的基本一致。
HA的容錯備援運作過程
自動偵測(Auto-Detect)階段 由主機上的軟體通過冗餘偵測線,經由復雜的監聽程序。邏
輯判斷,來相互偵測對方運行的情況,所檢查的項目有:
主機硬體(CPU和周邊)
主機網路
主機操作系統
資料庫引擎及其它應用程序
主機與磁碟陣列連線
為確保偵測的正確性,而防止錯誤的判斷,可設定安全偵測時間,包括偵測時間間隔,
偵測次數以調整安全系數,並且由主機的冗餘通信連線,將所匯集的訊息記錄下來,以供
維護參考。
自動切換(Auto-Switch)階段 某一主機如果確認對方故障,則正常主機除繼續進行原來的
任務,還將依據各種容錯備援模式接管預先設定的備援作業程序,並進行後續的程序及服
務。
自動恢復(Auto-Recovery)階段 在正常主機代替故障主機工作後,故障主機可離線進行修
復工作。在故障主機修復後,透過冗餘通訊線與原正常主機連線,自動切換回修復完成的
主機上。整個回復過程完成由EDI-HA自動完成,亦可依據預先配置,選擇回復動作為半自
動或不回復。
4.2、HA三種工作方式:
(1)、主從方式 (非對稱方式)
工作原理:主機工作,備機處於監控准備狀況;當主機宕機時,備機接管主機的一切工作,
待主機恢復正常後,按使用者的設定以自動或手動方式將服務切換到主機上運行,數據的
一致性通過共享存儲系統解決。
中科紅旗linux技術支持服務中心---西安站 http://linux.xab.ac.cn
中國科學院西安網路中心 中科紅旗linux培訓認證中心
(2)、雙機雙工方式(互備互援)
工作原理:兩台主機同時運行各自的服務工作且相互監測情況,當任一台主機宕機時,另
一台主機立即接管它的一切工作,保證工作實時,應用服務系統的關鍵數據存放在共享存
儲系統中。
(3)、集群工作方式(多伺服器互備方式)
工作原理:多台主機一起工作,各自運行一個或幾個服務,各為服務定義一個或多個備用
主機,當某個主機故障時,運行在其上的服務就可以被其它主機接管。
中科紅旗linux技術支持服務中心---西安站 http://linux.xab.ac.cn
中國科學院西安網路中心 中科紅旗linux培訓認證中心
相關文檔
http://tech.sina.com.cn/it/2004-04-09/1505346805.shtml
http://stonesoup.esd.ornl.gov
LINUX下的集群實列應用
最近有客戶需要一個負載均衡方案,筆者對各種軟硬體的負載均衡方案進行了調查和
比較,從IBM sServer Cluster、Sun Cluster PlatForm 等硬體集群,到中軟、紅旗、
TurboLinux的軟體集群,發現無論採用哪個廠商的負載均衡產品其價格都是該客戶目前所
不能接受的。於是筆者想到了開放源項目Linux Virtual Server(簡稱LVS)。經過對LVS的研
究和實驗,終於在Red Hat 9.0上用LVS成功地構架了一組負載均衡的集群系統。整個實
現過程整理收錄如下,供讀者參考。
選用的LVS實際上是一種Linux操作系統上基於IP層的負載均衡調度技術,它在操
作系統核心層上,將來自IP層的TCP/UDP請求均衡地轉移到不同的伺服器,從而將一組
伺服器構成一個高性能、高可用的虛擬伺服器。使用三台機器就可以用LVS實現最簡單的集
群,如圖1所示。
中科紅旗linux技術支持服務中心---西安站 http://linux.xab.ac.cn
中國科學院西安網路中心 中科紅旗linux培訓認證中心
圖1 LVS實現集群系統結構簡圖
圖1顯示一台名為Director的機器在集群前端做負載分配工作;後端兩台機器稱之為
Real Server,專門負責處理Director分配來的外界請求。該集群的核心是前端的Director
機器,LVS就是安裝在這台機器上,它必須安裝Linux。Real Server則要根據其選用的負
載分配方式而定,通常Real Server上的設置比較少。接下來介紹Director機器上LVS的
安裝過程。
安裝
LVS的安裝主要是在Director機器上進行,Real Server只需針對不同的轉發方式做簡單
的設定即可。特別是對LVS的NAT方式,Real Server惟一要做的就是設一下預設的網關。
所以構架集群的第一步從安裝Director機器開始。
首先,要在Director機器上安裝一個Linux操作系統。雖然早期的一些Red Hat版本,
如6.2、7.2、8.0等自帶Red Hat自己的集群軟體,或者是在內核中已經支持LVS,但是為
了更清楚地了解LVS的機制,筆者還是選擇自行將LVS編入Linux內核的方式進行安裝,
Linux版本採用Red Hat 9.0。
如果用戶對Red Hat的安裝比較了解,可以選擇定製安裝,並只安裝必要的軟體包。
安裝中請選擇GRUB 做為啟動引導管理軟體。因為GRUB 在系統引導方面的功能遠比
LILO強大,在編譯Linux內核時可以體會它的方便之處。
LVS是在Linux內核中實現的,所以要對原有的Linux內核打上支持LVS的內核補丁,
然後重新編譯內核。支持LVS 的內核補丁可以從LVS 的官方網
http://www.linuxvirtualserver.org 下載,下載時請注意使用的Linux核心版本,必須下載和
中科紅旗linux技術支持服務中心---西安站 http://linux.xab.ac.cn
中國科學院西安網路中心 中科紅旗linux培訓認證中心
使用的Linux內核版本相一致的LVS內核補丁才行。對於Red Hat 9.0,其Linux內核版本
是2.4.20,所以對應內核補丁應該是http://www.linuxvirtualserver.org/software/kernel-
2.4/linux-2.4.20-ipvs-1.0.9.patch.gz。筆者經過多次實驗,使用Red Hat 9.0自帶的Linux
源代碼無法成功編譯LVS 的相關模組。由於時間關系筆者沒有仔細研究,而是另外從
kernel.org上下載了一個tar包格式的2.4.20內核來進行安裝,順利完成所有編譯。下面是
整個內核的編譯過程:
1.刪除Red Hat自帶的Linux源代碼
# cd /usr/src
# rm -rf linux*
2.下載2.4.20內核
# cd /usr/src
# wget ftp://ftp.kernel.org/pub/linux/kernel/v2.4/linux-2.4.20.tar.bz2
3.解壓到當前目錄/usr/src
# cd /usr/src
# tar -xjpvf linux-2.4.20.tar.bz2
4.建立鏈接文件
# cd /usr/src # ln -s linux-2.4.20 linux-2.4 # ln -s linux-2.4.20 linux
5.打上LVS的內核補丁
# cd /usr/src
#wget http://www.linuxvirtualserver.org/software/kernel-2.4/linux-2.4.20-ipvs-
1.0.9.patch.gz
# gzip -cd linux-2.4.20-ipvs-1.0.9.patch.gz
# cd /usr/src/linux
# patch -p1 < ../linux-2.4.20-ipvs-1.0.9.patch
在打補丁時,注意命令執行後的信息,不能有任何錯誤信息,否則核心或模組很可能
無法成功編譯。
6.打上修正ARP問題的內核補丁
# cd /usr/src
# wget http://www.ssi.bg/~ja/hidden-2.4.20pre10-1.diff
# cd /usr/src/linux
中科紅旗linux技術支持服務中心---西安站 http://linux.xab.ac.cn
中國科學院西安網路中心 中科紅旗linux培訓認證中心
# patch -p1 < ../hidden-2.4.20pre10-1.diff
這一步在Director機器上可以不做,但是在使用LVS/TUN和LVS/DR方式的Real Server
上必須做。
7.為新核心命名
打開/usr/src/linux/Makefile。注意,在開始部分有一個變數EXTRAVERSION可以自行定
義。修改這個變數,比如改成「EXTRAVERSION=-LVS」後,編譯出的核心版本號就會顯
示成2.4.20-LVS。這樣給出有含義的名稱將有助於管理多個Linux核心。
8.檢查源代碼
# make mrproper
這一步是為確保源代碼目錄下沒有不正確的.o文件及文件的互相依賴。因為是新下載的內
核,所以在第一次編譯時,這一步實際可以省略。
9.配置核心選項
# make menuconfig
命令執行後會進入一個圖形化的配置界面,可以通過這個友好的圖形界面對內核進行定製。
此過程中,要注意對硬體驅動的選擇。Linux支持豐富的硬體,但對於伺服器而言,用不到
的硬體驅動都可以刪除。另外,像Multimedia devices、Sound、Bluetooth support、Amateur
Radio support等項也可以刪除。
注意,以下幾項配置對LVS非常重要,請確保作出正確的選擇:
(1)Code maturity level options項
對此項只有以下一個子選項,請選中為*,即編譯到內核中去。
Prompt for development and/or incomplete code/drivers
(2)Networking options項
對此項的選擇可以參考以下的配置,如果不清楚含義可以查看幫助:
<*> Packet socket
[ ] Packet socket: mmapped IO
< > Netlink device emulation
中科紅旗linux技術支持服務中心---西安站 http://linux.xab.ac.cn
中國科學院西安網路中心 中科紅旗linux培訓認證中心
Network packet filtering (replaces ipchains)
[ ] Network packet filtering debugging
Socket Filtering
<*> Unix domain sockets
TCP/IP networking
IP: multicasting
IP: advanced router
IP: policy routing
[ ] IP: use netfilter MARK value as routing key
[ ] IP: fast network address translation
<M> IP: tunneling
IP: broadcast GRE over IP
[ ] IP: multicast routing
[ ] IP: ARP daemon support (EXPERIMENTAL)
[ ] IP: TCP Explicit Congestion Notification support
[ ] IP: TCP syncookie support (disabled per default)
IP: Netfilter Configuration --->
IP: Virtual Server Configuration --->
(3)Networking options項中的IP: Virtual Server Configuration項
如果打好了LVS的內核補丁,就會出現此選項。進入Virtual Server Configuration選項,
有以下子選項:
<M> virtual server support (EXPERIMENTAL)
IP virtual server debugging
(12) IPVS connection table size (the Nth power of 2)
--- IPVS scheler
<M> round-robin scheling
<M> weighted round-robin scheling
<M> least-connection scheling scheling
<M> weighted least-connection scheling
<M> locality-based least-connection scheling
<M> locality-based least-connection with replication scheling
<M> destination hashing scheling
<M> source hashing scheling
<M> shortest expected delay scheling
<M> never queue scheling
--- IPVS application helper
<M> FTP protocol helper
以上所有項建議全部選擇。
中科紅旗linux技術支持服務中心---西安站 http://linux.xab.ac.cn
中國科學院西安網路中心 中科紅旗linux培訓認證中心
(4)Networking options項中的IP: Netfilter Configuration項
對於2.4版本以上的Linux Kernel來說,iptables是取代早期ipfwadm和ipchains的
更好選擇,所以除非有特殊情況需要用到對ipchains和ipfwadm的支持,否則就不要選它。
本文在LVS/NAT方式中,使用的就是iptables,故這里不選擇對ipchains和ipfwadm的
支持:
< > ipchains (2.2-style) support
< > ipfwadm (2.0-style) support
10. 編譯內核
(1)檢查依賴關系
# make dep
確保關鍵文件在正確的路徑上。
(2)清除中間文件
# make clean
確保所有文件都處於最新的版本狀態下。
(3)編譯新核心
# make bzImage
(4)編譯模組
# make moles
編譯選擇的模組。
(5)安裝模組
# make moles_install
# depmod -a
生成模組間的依賴關系,以便modprobe定位。
(6)使用新模組
# cp System.map /boot/System.map-2.4.20-LVS
# rm /boot/System.map
# ln -s /boot/System.map-2.4.20-LVS /boot/System.map
# cp arch/i386/boot/bzImage /boot/vmlinuz-2.4.20-LVS
# rm /boot/vmlinuz
# ln -s /boot/vmlinuz-2.4.20-LVS /boot/vmlinuz
# new-kernel-pkg --install --mkinitrd --depmod 2.4.20-LVS
中科紅旗linux技術支持服務中心---西安站 http://linux.xab.ac.cn
中國科學院西安網路中心 中科紅旗linux培訓認證中心
(7)修改GRUB,以新的核心啟動
執行完new-kernel-pkg命令後,GRUB的設置文件/etc/grub.conf中已經增加了新核心的
啟動項,這正是開始安裝Linux時推薦使用GRUB做引導程序的原因。
grub.conf中新增內容如下:
title Red Hat Linux (2.4.20-LVS)
root (hd0,0)
kernel /boot/vmlinuz-2.4.20LVS ro root=LABEL=/
initrd /boot/initrd-2.4.20LVS.img
將Kernel項中的root=LABEL=/改成 root=/dev/sda1 (這里的/dev/sda1是筆者Linux的根
分區,讀者可根據自己的情況進行不同設置)。
保存修改後,重新啟動系統:
# reboot
系統啟動後,在GRUB的界面上會出現Red Hat Linux(2.4.20-LVS)項。這就是剛才編譯的
支持LVS的新核心,選擇此項啟動,看看啟動過程是否有錯誤發生。如果正常啟動,ipvs
將作為模塊載入。同時應該注意到,用LVS的內核啟動後在/proc目錄中新增了一些文件,
比如/proc/sys/net/ipv4/vs/*。
11.安裝IP虛擬伺服器軟體ipvsadm
用支持LVS的內核啟動後,即可安裝IP虛擬伺服器軟體ipvsadm了。用戶可以用tar包或
RPM 包安裝,tar 包可以從以下地址http://www.linuxvirtualserver.org/software/kernel-
2.4/ipvsadm-1.21.tar.gz 下載進行安裝。
這里採用源RPM包來進行安裝:
# wget http://www.linuxvirtualserver.org/software/kernel-2.4/ipvsadm-1.21-7.src.rpm
# rpmbuild --rebuild ipvsadm-1.21-7.src.rpm
# rpm -ivh /usr/src/redhat/RPMS/i386/ipvsadm-1.21-7.i386.rpm
注意:高版本的rpm命令去掉了--rebuild這個參數選項,但提供了一個rpmbuild命令來實
現它。這一點和以前在Red Hat 6.2中以rpm—rebuild XXX.src.rpm來安裝源RPM包的習
慣做法有所不同。
安裝完,執行ipvsadm命令,應該有類似如下的信息出現:
# ipvsadm
中科紅旗linux技術支持服務中心---西安站 http://linux.xab.ac.cn
中國科學院西安網路中心 中科紅旗linux培訓認證中心
IP Virtual Server version 1.0.9 (size=4096)
Prot LocalAddress:Port Scheler Flags
-> RemoteAddress:Port Forward Weight ActiveConn InActConn
出現類似以上信息,表明支持LVS 的內核和配置工具ipvsadm 已完全安裝,這台
Director機器已經初步安裝完成,已具備構架各種方式的集群的條件。
實例
理解了上述關於請求轉發方式和調度演算法的基本概念後,就可以運用LVS來具體實現
幾種不同方式的負載均衡的集群系統。LVS的配置是通過前面所安裝的IP虛擬伺服器軟體
ipvsadm來實現的。ipvsadm與LVS的關系類似於iptables和NetFilter的關系,前者只是
一個建立和修改規則的工具,這些命令的作用在系統重新啟動後就消失了,所以應該將這
些命令寫到一個腳本里,然後讓它在系統啟動後自動執行。網上有不少配置LVS的工具,
有的甚至可以自動生成腳本。但是自己手工編寫有助於更深入地了解,所以本文的安裝沒
有利用其它第三方提供的腳本,而是純粹使用ipvsadm命令來配置。
下面就介紹一下如何配置LVS/NAT、LVS/TUN、LVS/DR方式的負載均衡集群。
1.設定LVS/NAT方式的負載均衡集群
NAT是指Network Address Translation,它的轉發流程是:Director機器收到外界請求,
改寫數據包的目標地址,按相應的調度演算法將其發送到相應Real Server上,Real Server
處理完該請求後,將結果數據包返回到其默認網關,即Director機器上,Dire

⑻ 電腦死機藍屏 並且裝不進系統

我認為要逐步看看,應該先把內存換換看看,不行在試試硬碟,然後還不行有可能是光碟機和光碟的問題了,再不行的話,我感覺就是EDI線頭壞掉了,要是還找不出原因我感覺那就是CPU掛了~

⑼ WAS是什麼

德語was的意思是:什麼 相當於英語的what 當然也有英語的意思。。(自己網路)

熱點內容
丁度巴拉斯情人電影推薦 發布:2024-08-19 09:13:07 瀏覽:886
類似深水的露點電影 發布:2024-08-19 09:10:12 瀏覽:80
《消失的眼角膜》2電影 發布:2024-08-19 08:34:43 瀏覽:878
私人影院什麼電影好看 發布:2024-08-19 08:33:32 瀏覽:593
干 B 發布:2024-08-19 08:30:21 瀏覽:910
夜晚看片網站 發布:2024-08-19 08:20:59 瀏覽:440
台灣男同電影《越界》 發布:2024-08-19 08:04:35 瀏覽:290
看電影選座位追女孩 發布:2024-08-19 07:54:42 瀏覽:975
日本a級愛情 發布:2024-08-19 07:30:38 瀏覽:832
生活中的瑪麗類似電影 發布:2024-08-19 07:26:46 瀏覽:239