在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

企業如何用ELK技術棧實現數據流量爆炸式增長

馬哥Linux運維 ? 來源:馬哥Linux運維 ? 2024-12-19 11:38 ? 次閱讀

ELK簡介

什么是ELK

通俗來講,ELK 是由 Elasticsearch、Logstash、Kibana 三個開源軟件的組成的一個組合體,ELK 是 elastic 公司研發的一套完整的日志收集、分析和展示的企業級解決方案,在這三個軟件當中,每個軟件用于完成不同的功能,ELK 又稱為ELK stack,官方域名為 elastic.co,ELK stack 的主要優點有如下幾個:處理方式靈活:elasticsearch 是實時全文索引,具有強大的搜索功能配置相對簡單:elasticsearch 的 API 全部使用 JSON 接口,logstash 使用模塊配置,kibana 的配置文件部分更簡單。檢索性能高效:基于優秀的設計,雖然每次查詢都是實時,但是也可以達到百億級數據的查詢秒級響應。集群線性擴展:elasticsearch 和 logstash 都可以靈活線性擴展前端操作絢麗:kibana 的前端設計比較絢麗,而且操作簡單

Elasticsearch

Elasticsearch是個開源分布式搜索引擎,提供搜集、分析、存儲數據三大功能。它的特點有:分布式,零配置,自動發現,索引自動分片,索引副本機制,restful風格接口,多數據源,自動搜索負載等。主要負責將日志索引并存儲起來,方便業務方檢索查詢。

Elasticsearch 使用 Java 語言開發,是建立在全文搜索引擎 Apache Lucene 基礎之上的搜索引擎。

Elasticsearch 的特點:

實時搜索、實時分析

分布式架構、實時文件存儲

文檔導向,所有對象都是文檔

高可用,易擴展,支持集群,分片與復制

接口友好,支持 json

Logstash

Logstash 主要是用來日志的搜集、分析、過濾日志的工具,支持大量的數據獲取方式。一般工作方式為c/s架構,client端安裝在需要收集日志的主機上,server端負責將收到的各節點日志進行過濾、修改等操作在一并發往elasticsearch上去。是一個日志收集、過濾、轉發的中間件,主要負責將各條業務線的各類日志統一收集、過濾后,轉發給 Elasticsearch 進行下一步處理。

Kibana

Kibana 也是一個開源和免費的工具,Kibana可以為 Logstash 和 ElasticSearch 提供的日志分析友好的 Web 界面,可以幫助匯總、分析和搜索重要數據日志。

ELK的工作原理

1.在所有需要收集日志的服務器上部署Logstash;或者先將日志進行集中化管理在日志服務器上,在日志服務器上部署 Logstash。
2.Logstash 收集日志,將日志格式化并輸出到 Elasticsearch 群集中。
3.Elasticsearch 對格式化后的數據進行索引和存儲。
4.Kibana 從 ES 群集中查詢數據生成圖表,并進行前端數據的展示。

ELK安裝部署

0c6b1c62-bd24-11ef-8732-92fbcf53809c.png

前期準備

所以設備
[root@localhost ~]# systemctl disable  --now   firewalld
[root@localhost ~]# setenforce 0
[root@localhost ~]# yum -y install java
[root@localhost ~]# hostnamectl set-hostname node1/node2/apache
#更改設備名稱

安裝部署 Elasticsearch 軟件

安裝 Elasticsearch 軟件

#在軟件官網下載所需的安裝包到/data
[root@localhost data]# ls
elasticsearch-6.7.2.rpm  elasticsearch-head-master.zip  node-v8.2.1.tar.gz  phantomjs-2.1.1-linux-x86_64.tar.bz2


#用rpm安裝Elasticsearch軟件
[root@localhost data]#rpm -ivh elasticsearch-6.7.2.rpm

[root@localhost data]# cd /etc/elasticsearch/
[root@localhost elasticsearch]# mkdir bak
[root@localhost elasticsearch]# cp -a *.yml  bak/
#備份要修改的文件,方便還原配置文件

修改配置文件

[root@node1 elasticsearch]# vim elasticsearch.yml
17 cluster.name: my-elk-cluster#修改集群名字

23 node.name: node1#設置節點名稱主從之間不能一致 
24 node.master: true#作為主節點
25 node.data: true#作為數據節點

45 bootstrap.memory_lock: true#內存鎖開啟  禁止使用  swap

59 network.host: 0.0.0.0#監聽地址
60 http.port: 9200#默認使用端口
61 transport.tcp.port: 9300#內部傳輸端口

73 discovery.zen.ping.unicast.hosts: ["192.168.10.10:9300", "192.168.10.20:9300"] #自動集群發現,加入主機名  使用單播 類似心跳線


#再次查看數據是否更改完成
[root@localhost elasticsearch]# grep -v "^#"  elasticsearch.yml 
cluster.name: my-elk-cluster
node.name: node1
node.master: true
node.data: true
path.data: /var/lib/elasticsearch
path.logs: /var/log/elasticsearch
bootstrap.memory_lock: true
network.host: 0.0.0.0 
http.port: 9200
transport.tcp.port: 9300
discovery.zen.ping.unicast.hosts: ["192.168.10.10:9300", "192.168.10.20:9300"]

修改系統配置

性能調優參數

[root@localhost elasticsearch]# vim /etc/security/limits.conf
......
#在最后添加
*  soft    nofile          65536
*  hard    nofile          65536
*  soft    nproc           32000
*  hard    nproc           32000
*  soft    memlock         unlimited
*  hard    memlock         unlimited

修改systemd 服務管理器

/etc/systemd/system.conf 文件是用于配置 systemd 的,這是一種用于 Linux 操作系統的系統和服務管理器。通過這個文件,你可以自定義與系統操作、性能和行為相關的各種設置

DefaultTimeoutStartSec=:設置啟動服務的默認等待時間

DefaultTimeoutStopSec=:設置停止服務的默認等待時間

DefaultRestartSec=:設置在重新啟動服務之前的默認休眠時間

DefaultLimitNOFILE=:設置打開文件數量的默認限制

DefaultLimitNPROC=:設置進程數量的默認限制

DefaultLimitCORE=:設置核心文件大小的默認限制

DefaultEnvironment=:指定服務的默認環境變量

實際修改

[root@localhost elasticsearch]# vim /etc/systemd/system.conf
DefaultLimitNOFILE=65536
DefaultLimitNPROC=32000
DefaultLimitMEMLOCK=infinity

修改內核參數

[root@localhost elasticsearch]# vim /etc/sysctl.conf
#一個進程可以擁有的最大內存映射區域數,參考數據(分配 2g/262144,4g/4194304,8g/8388608)
vm.max_map_count=262144

[root@localhost elasticsearch]# sysctl -p#讀取并應用這些配置更改,無需重新啟動系統效。
[root@localhost elasticsearch]# sysctl -a | grep vm.max_map_count

重啟服務器啟動elasticsearch

[root@localhost elasticsearch]# reboot#重啟服務器
[root@localhost ~]# systemctl start elasticsearch.service#啟動elasticsearch
[root@localhost ~]# systemctl enable elasticsearch.service#設置開機啟動
[root@localhost ~]# ss -natp | grep 9200#查看端口號

查看節點信息

瀏覽器訪問  
http://192.168.10.10:9200  
http://192.168.10.20:9200 
查看節點 Node1、Node2 的信息。
![](https://img2024.cnblogs.com/blog/3405553/202408/3405553-20240801135325938-765153284.png)



瀏覽器訪問 
http://192.168.10.10:9200/_cluster/health?pretty  
http://192.168.10.20:9200/_cluster/health?pretty
查看群集的健康情況,可以看到 status 值為 green(綠色), 表示節點健康運行。


瀏覽器訪問 http://192.168.10.10:9200/_cluster/state?pretty  檢查群集狀態信息

編譯安裝 Elasticsearch-head 插件 主從都可以安裝

Elasticsearch 在 5.0 版本后,Elasticsearch-head 插件需要作為獨立服務進行安裝,需要使用npm工具(NodeJS的包管理工具)安裝。
安裝 Elasticsearch-head 需要提前安裝好依賴軟件nodephantomjs
node:是一個基于 Chrome V8 引擎的 JavaScript 運行環境。
phantomjs:是一個基于 webkit 的JavaScriptAPI,可以理解為一個隱形的瀏覽器,任何基于 webkit 瀏覽器做的事情,它都可以做到。

編譯安裝node組件

[root@localhost ~]# yum install gcc gcc-c++ make -y
#下載安裝和解壓環境
[root@localhost ~]# cd /data/
[root@localhost data]# tar zxvf node-v8.2.1.tar.gz
[root@localhost data]# cd node-v8.2.1/
[root@localhost node-v8.2.1]# ./configure
[root@localhost node-v8.2.1]# make && make install

安裝 phantomjs

[root@localhost node-v8.2.1]# cd /data
[root@localhost data]# tar jxvf phantomjs-2.1.1-linux-x86_64.tar.bz2
[root@localhost data]# cd /data/phantomjs-2.1.1-linux-x86_64/bin
[root@localhost bin]# ln -s  /opt/phantomjs-2.1.1-linux-x86_64/bin/phantomjs   /usr/bin

安裝 Elasticsearch-head 數據可視化工具

[root@localhost bin]# cd /data
[root@localhost data]# unzip elasticsearch-head-master.zip
[root@localhost data]# cd /data/elasticsearch-head-master/
[root@localhost elasticsearch-head-master]#npm install #安裝依賴包
[root@localhost elasticsearch-head-master]#npm install --registry=https://registry.npmmirror.com      #指定源

修改 Elasticsearch 主配置文件

[root@localhost elasticsearch-head-master]# vim /etc/elasticsearch/elasticsearch.yml
......
--末尾添加以下內容--
http.cors.enabled: true#開啟跨域訪問支持,默認為 false
http.cors.allow-origin: "*"#指定跨域訪問允許的域名地址為所有


[root@localhost elasticsearch-head-master]# systemctl restart elasticsearch
#重啟elasticsearch  服務

啟動 elasticsearch-head 服務

必須在解壓后的 elasticsearch-head 目錄下啟動服務,進程會讀取該目錄下的 gruntfile.js 文件,否則可能啟動失敗。

[root@localhost elasticsearch-head-master]#cd /data/elasticsearch-head-master/
[root@localhost elasticsearch-head-master]# npm run start &
> [email protected] start /usr/local/src/elasticsearch-head
> grunt server

Running "connect:server" (connect) task
Waiting forever...
Started connect web server on http://localhost:9100

#elasticsearch-head 監聽的端口是 9100
[root@localhost elasticsearch-head-master]# ss -natp |grep 9100
#檢測9100 端口是否開啟

測試

網頁訪問:192.168.10.10:9100 或 192.168.10.20:9100

0c796fba-bd24-11ef-8732-92fbcf53809c.png

插入索引測試

[root@node2 elasticsearch-head-master]# curl -X PUT 'localhost:9200/index-demo/test/1?pretty&pretty' -H 'content-Type: application/json' -d '{"user":"zhangsan","mesg":"hello world"}'
{
  "_index" : "index-demo",
  "_type" : "test",
  "_id" : "1",
  "_version" : 1,
  "result" : "created",
  "_shards" : {
    "total" : 2,
    "successful" : 2,
    "failed" : 0
  },
  "_seq_no" : 0,
  "_primary_term" : 1
}

0c7df42c-bd24-11ef-8732-92fbcf53809c.png

在應用服務器部署 Logstash

安裝服務

[root@apache ~]# yum -y install java
[root@apache ~]# java -version
[root@apache ~]# yum -y install httpd
[root@apache ~]# systemctl start httpd

安裝logstash

[root@apache ~]# cd /data
[root@apache data]# ls
kibana-6.7.2-x86_64.rpm  logstash-6.7.2.rpm
[root@apache data]# rpm -ivh logstash-6.7.2.rpm
#安裝logstash
[root@apache data]# systemctl enable --now logstash.service
#開啟logstash.service
[root@apache data]# ln -s  /usr/share/logstash/bin/logstash   /usr/bin/
# 做軟連接

使用logstash 收集日志

Logstash 命令常用選項:
-f:通過這個選項可以指定 Logstash 的配置文件,根據配置文件配置 Logstash 的輸入和輸出流。
-e:從命令行中獲取,輸入、輸出后面跟著字符串,該字符串可以被當作 Logstash 的配置(如果是空,則默認使用 stdin 作為輸入,stdout 作為輸出)。
-t:測試配置文件是否正確,然后退出。

[root@localhost opt]# logstash -e 'input { stdin{} } output { stdout{} }'
# 等待時間較長
WARNING: Could not find logstash.yml which is typically located in $LS_HOME/config or /etc/logstash. You can specify the path using --path.settings. Continuing using the defaults
Could not find log4j2 configuration at path /usr/share/logstash/config/log4j2.properties. Using default config which logs errors to the console
[INFO ] 2024-08-01 1530.012 [main] writabledirectory - Creating directory {:setting=>"path.queue", :path=>"/usr/share/logstash/data/queue"}
[INFO ] 2024-08-01 1530.031 [main] writabledirectory - Creating directory {:setting=>"path.dead_letter_queue", :path=>"/usr/share/logstash/data/dead_letter_queue"}
[WARN ] 2024-08-01 1530.392 [LogStash::Runner] multilocal - Ignoring the 'pipelines.yml' file because modules or command line options are specified
[INFO ] 2024-08-01 1530.399 [LogStash::Runner] runner - Starting Logstash {"logstash.version"=>"6.7.2"}
[INFO ] 2024-08-01 1530.425 [LogStash::Runner] agent - No persistent UUID file found. Generating new UUID {:uuid=>"a499dafc-ae55-41da-b12d-36425108a95e", :path=>"/usr/share/logstash/data/uuid"}
[INFO ] 2024-08-01 1535.985 [Converge PipelineAction::Create
] pipeline - Starting pipeline {:pipeline_id=>"main", "pipeline.workers"=>2, "pipeline.batch.size"=>125, "pipeline.batch.delay"=>50} [INFO ] 2024-08-01 1536.390 [Converge PipelineAction::Create
] pipeline - Pipeline started successfully {:pipeline_id=>"main", :thread=>"#"} The stdin plugin is now waiting for input: [INFO ] 2024-08-01 1536.458 [Ruby-0-Thread-1: /usr/share/logstash/lib/bootstrap/environment.rb:6] agent - Pipelines running {:count=>1, :running_pipelines=>[:main], :non_running_pipelines=>[]} [INFO ] 2024-08-01 1536.734 [Api Webserver] agent - Successfully started Logstash API endpoint {:port=>9600} # 此處輸入需要的信息 hello world ############# /usr/share/logstash/vendor/bundle/jruby/2.5.0/gems/awesome_print-1.7.0/lib/awesome_print/formatters/base_formatter.rb warning: constant ::Fixnum is deprecated { "message" => "hello world", "host" => "localhost.localdomain", "@version" => "1", "@timestamp" => 2024-07-15T1654.195Z }

使用 Logstash 將信息寫入 Elasticsearch 中

logstash -e 'input { stdin{} } output { elasticsearch { hosts=>["192.168.10.10:9200","192.168.10.20:9200"]} }'
//結果不在標準輸出顯示,而是發送至 Elasticsearch 中,可瀏覽器訪問 http://192.168.10.10:9100/或http://192.168.10.20:9100 查看索引信息和數據瀏覽。

使用配置文件

Logstash 配置文件基本由三部分組成:input、output 以及 filter(可選,根據需要選擇使用)

input:表示從數據源采集數據,常見的數據源如Kafka、日志文件等
file beats kafka redis stdin

filter:表示數據處理層,包括對數據進行格式化處理、數據類型轉換、數據過濾等,支持正則表達式
grok 對若干個大文本字段進行再分割成一些小字段 (?<字段名>正則表達式) 字段名: 正則表達式匹配到的內容
date 對數據中的時間格式進行統一和格式化
mutate 對一些無用的字段進行剔除,或增加字段
mutiline 對多行數據進行統一編排,多行合并或拆分

output:表示將Logstash收集的數據經由過濾器處理之后輸出到Elasticsearch。
elasticsearch stdout

#格式如下:
input {...}
filter {...}
output {...}

#在每個部分中,也可以指定多個訪問方式。例如,若要指定兩個日志來源文件,則格式如下:
input {
file { path =>"/var/log/messages"   type =>"syslog"}
file { path =>"/var/log/httpd/access.log" type =>"apache"}

vim system.conf
input {
    file{
        path =>"/var/log/messages"
        type =>"system"
        start_position =>"beginning"
# ignore_older => 604800
        sincedb_path => "/etc/logstash/sincedb_path/log_progress"
        add_field => {"log_hostname"=>"${HOSTNAME}"}
    }
}
#path表示要收集的日志的文件位置
#type是輸入ES時給結果增加一個叫type的屬性字段
#start_position可以設置為beginning或者end,beginning表示從頭開始讀取文件,end表示讀取最新的,這個要和ignore_older一起使用
#ignore_older表示了針對多久的文件進行監控,默認一天,單位為秒,可以自己定制,比如默認只讀取一天內被修改的文件
#sincedb_path表示文件讀取進度的記錄,每行表示一個文件,每行有兩個數字,第一個表示文件的inode,第二個表示文件讀取到的位置(byteoffset)。默認為$HOME/.sincedb*
#add_field增加屬性。這里使用了${HOSTNAME},即本機的環境變量,如果要使用本機的環境變量,那么需要在啟動命令上加--alow-env

output {
    elasticsearch {#輸出到 elasticsearch
        hosts => ["192.168.91.100:9200","192.168.91.101:9200"]#指定 elasticsearch 服務器的地址和端口
        index =>"system-%{+YYYY.MM.dd}"#指定輸出到 elasticsearch 的索引格式
    }
}

實列

[root@apache log]# vim /etc/logstash/conf.d/system-log.conf 

input {
    file {
      path => "/var/log/messages"
      type => "system"
      start_position => "beginning"
    }

    file {
      path => "/var/log/yum.log"
      type => "yum"
      start_position => "beginning"
    }

}

output {
  if  type]
  elasticsearch {
  hosts => [ "192.168.91.100:9200","192.168.91.101:9200" ]
  index => "system-%{+YYYY.MM.dd}"
  }

}



[root@apache conf.d]# chmod +r /var/log/messages 
#添加權限


[root@apache conf.d]# logstash   -f  system-log.conf 
#啟動logstash
........................................................................
[INFO ] 2024-07-16 0141.716 [Api Webserver] agent - Successfully started Logstash API endpoint {:port=>9601}

安裝 kibana 無所謂哪臺服務器

安裝

[root@apache log]# cd /data/
[root@apache data]# rpm -ivh kibana-6.7.2-x86_64.rpm

修改配置

[root@apache data]# cd /etc/kibana/
[root@localhost kibana]# cp kibana.yml  kibana.yml.bak -a
# 做好主要配置文件的備份
[root@apache kibana]# vim kibana.yml
# 修改以下行
2    server.port: 5601          #打開端口
7    server.host: "0.0.0.0"      #監聽端口
28   elasticsearch.hosts: ["http://192.168.91.100:9200", "http://192.168.91.101:9200"]  #el服務器地址
37   kibana.index: ".kibana"         #打開索引
96   logging.dest: /var/log/k.log      #指定日志文件, 需要手動建立文件
114  i18n.locale: "zh-CN"              #中文設置

[root@apache kibana]# chown kibana:kibana /var/log/k.log

啟動 kibana

[root@apache kibana]# systemctl enable --now kibana.service
[root@apache kibana]# ss -nap |grep 5601
tcp    LISTEN     0      128       *:5601                  *:*                   users:(("node",pid=42235,fd=19))

訪問測試

192.168.10.30:5601

0c967f1a-bd24-11ef-8732-92fbcf53809c.png

0ca17762-bd24-11ef-8732-92fbcf53809c.png

0cb89898-bd24-11ef-8732-92fbcf53809c.png

0cc06370-bd24-11ef-8732-92fbcf53809c.png

0cd7dcd0-bd24-11ef-8732-92fbcf53809c.png

0ce9ec2c-bd24-11ef-8732-92fbcf53809c.png

0cfd94e8-bd24-11ef-8732-92fbcf53809c.png

0d086dd2-bd24-11ef-8732-92fbcf53809c.png

0d211454-bd24-11ef-8732-92fbcf53809c.png

0d33444e-bd24-11ef-8732-92fbcf53809c.png

0d4cb03c-bd24-11ef-8732-92fbcf53809c.png

鏈接:https://www.cnblogs.com/zhj0708/p/18336510

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 開源軟件
    +關注

    關注

    0

    文章

    212

    瀏覽量

    16151
  • Elasticsearch
    +關注

    關注

    0

    文章

    30

    瀏覽量

    2958

原文標題:揭秘ELK技術棧:企業如何用它實現數據流量爆炸式增長

文章出處:【微信號:magedu-Linux,微信公眾號:馬哥Linux運維】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦
    熱點推薦

    商湯科技領跑2024年中國GenAI技術市場

    創新實力強、應用落地廣,GenAI(生成AI)技術領域,商湯科技位居國內榜首!
    的頭像 發表于 12-27 16:07 ?533次閱讀

    渦街流量計屬于什么流量

    渦街流量計屬于速度流量計的一種,同時也是流體振動流量計的一種。
    的頭像 發表于 12-14 10:27 ?480次閱讀

    流量計的傳感器類型 靶流量計的校準方法

    流量計的傳感器類型 靶流量計的傳感器類型主要取決于其工作原理和應用場景。以下是幾種常見的靶流量
    的頭像 發表于 12-11 17:02 ?595次閱讀

    流量計與其他流量計的優勢 靶流量計的常見故障及排除方法

    流量計是一種用于測量流體流量的儀器,它通過測量流體對靶板的作用力來確定流量。以下是關于靶流量
    的頭像 發表于 12-11 16:55 ?543次閱讀

    流量計應用領域 靶流量計的精度與誤差

    流量計應用領域 1. 石油化工行業 在石油化工行業中,靶流量計常用于測量原油、成品油、化工原料等介質的流量。這些介質往往具有較高的粘度
    的頭像 發表于 12-11 16:50 ?594次閱讀

    800G光模塊:高速通信的關鍵力量

    隨著信息技術的飛速發展,數據流量爆炸增長,對高速、大容量的數據傳輸設備需求日益迫切,800G
    的頭像 發表于 12-09 12:19 ?694次閱讀

    理解ECU數據流的分析方法

    分析ECU數據流技術人員可以快速定位故障源頭,減少維修時間和成本。 性能優化 :通過監控ECU數據,可以對車輛性能進行調整,以適應不同的駕駛條件和駕駛者需求。 安全監控 :實時監控ECU數據
    的頭像 發表于 11-05 11:07 ?941次閱讀

    何用 S7-200 實現 Modbus 通信?

    電子發燒友網站提供《如何用 S7-200 實現 Modbus 通信?.pdf》資料免費下載
    發表于 09-14 10:22 ?2次下載

    Linux網絡協議實現

    網絡協議是操作系統核心的一個重要組成部分,負責管理網絡通信中的數據包處理。在 Linux 操作系統中,網絡協議(Network Stack)負責實現 TCP/IP 協議簇,處理應用
    的頭像 發表于 09-10 09:51 ?530次閱讀
    Linux網絡協議<b class='flag-5'>棧</b>的<b class='flag-5'>實現</b>

    軟通動力數據庫全服務,助力企業數據庫體系全面升級

    。在企業節與"數博會"展區,軟通動力受邀分享數據庫專業服務全解決方案,并重點展示以全云服務為核心的數智化能力。 軟通動力高級數據庫服務專
    的頭像 發表于 09-05 15:30 ?478次閱讀
    軟通動力<b class='flag-5'>數據</b>庫全<b class='flag-5'>棧</b>服務,助力<b class='flag-5'>企業</b><b class='flag-5'>數據</b>庫體系全面升級

    InConnect維護設備的流量是多少

    個現場,每個PLC采集100個變量,每變量2B大小,每間隔5秒鐘采集一次,那么一年的數據流量 12月*30天*24小時*60分鐘*60秒/5秒*100(變量)*2B=1.24GB 3、視頻數據業務流量
    發表于 07-25 07:23

    英諾賽科營業收入實現跨越增長,持續推動技術創新

    ,其營業收入更是實現了令人矚目的增長,彰顯了公司在氮化鎵技術領域的強大競爭力和市場潛力。 營業收入持續攀升,增長勢頭強勁 英諾賽科作為全球氮化鎵行業的領軍
    的頭像 發表于 07-08 12:53 ?479次閱讀

    TCP/IP協議的設計與實現_中文

    電子發燒友網站提供《TCP/IP協議的設計與實現_中文.pdf》資料免費下載
    發表于 07-03 11:28 ?4次下載

    智領全 模力全開|銳捷網絡攜智算中心網絡方案亮相2024GIDC

    ,致力于提升通信帶寬利用率,降低動態時延以及實現無損的網絡傳輸,以提升AI集群網絡通信性能,幫助客戶實現生產效率的飛躍和運營成本的優化。 近年來,ChatGPT、Sora為代表的大模型取得技術突破,掀起新一輪人工智能熱潮,
    的頭像 發表于 06-20 14:35 ?676次閱讀
    智領全<b class='flag-5'>棧</b> 模力全開|銳捷網絡攜智算中心網絡方案亮相2024GIDC

    中國企業級交互人工智能市場潛力巨大,聲通科技積極拓展市場份額

    隨著人工智能、云計算、大數據、5G等新一代信息技術的迅猛發展,企業正迎來數字化轉型的浪潮。在這一浪潮中,企業級交互人工智能的商業化應用成為
    的頭像 發表于 05-24 09:46 ?537次閱讀
    主站蜘蛛池模板: avhd101天天看新片 | 一区二区三区四区精品 | 五月六月婷婷 | 亚洲丰满熟妇毛片在线播放 | 在线观看免费视频国产 | 亚洲人免费视频 | 国产精品美女在线 | 国产美女特级嫩嫩嫩bbb | 国产成人啪精品午夜在线播放 | 寄宿日记在线看 | 在线观看亚洲免费视频 | 欧美三级视频网 | 欧美 变态 另类 人妖班 | 欧美激情综合色综合啪啪五月 | 日韩免费网站 | 黄网站视频在线观看 | 免费播放一区二区三区 | 高h上错人1v1 | yy8090韩国日本三理论免费 | 精品三级国产精品经典三 | 日一区二区三区 | 色偷偷视频| 天天艹| 亚洲天堂2013 | 色香视频一sxmv首页 | 欧美淫| 国产美女作爱全过程免费视频 | 天天爆操 | 在线观看免费观看 | 日本不卡一区视频 | 久久狠狠第一麻豆婷婷天天 | 亚洲一区二区三区深夜天堂 | 亚洲电影二区 | 中文字幕乱码人成乱码在线视频 | 色天使亚洲 | 欲香欲色天天综合和网 | 你懂的网站在线播放 | 国产三级在线免费观看 | 天堂在线www天堂中文在线 | 天天撸夜夜操 | 丁香六月激情婷婷 |