在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

【米爾MYD-YT507開發板試用體驗】基于Fluter+Django+OpenCV的米爾行車記錄儀

開發板試用精選 ? 來源:開發板試用 ? 作者:電子發燒友論壇 ? 2022-10-26 14:51 ? 次閱讀

本文來源電子發燒友社區,作者:HonestQiao, 帖子地址:https://bbs.elecfans.com/jishu_2303715_1_1.html


之前分享的文章中,在米爾MYD-YT507開發板上進行了攝像頭流媒體的嘗試,在此基礎上,進一步對之前的評測計劃進行了實現。

經過充分的學習,最終應用Fluter+Django+OpenCV,實現了一款米爾行車記錄儀,現將實現的具體內容,與大家分享。

目錄:

  1. 行車記錄儀業務邏輯規劃
  2. 硬件設備準備
  3. 攝像頭信息記錄和實時畫面播放服務開發
  4. 攝像頭視頻信息記錄
  5. 攝像頭服務的完整代碼
  6. 歷史數據RestFul服務開發
  7. Flutter Web界面開發
  8. 整體運行效果
  9. 車試
  10. 實際代碼使用
  11. 感謝
  12. 總結

一、行車記錄儀業務邏輯規劃

經過詳細的分析,規劃了如下的基本業務邏輯結構:

米爾行車記錄儀.drawio.png

整體分為三個部分:

  1. 記錄服務:用于記錄攝像頭拍攝的視頻信息,以及提供攝像頭當前畫面的實時播放服務
  2. Django服務:包括RestFul提供API接口獲取歷史數據信息,以及為Flutter的Web界面提供訪問服務
  3. Flutter Web界面,用于實時畫面播放、歷史記錄播放的界面

為了又快又好的開發行車記錄儀的實際界面,以及后續進行各移動平臺的App開發,選擇了Flutter。事實證明,坑太多了。不過,跨平臺特性,確實好。

二、硬件設備準備:

開發這款行車記錄儀,實際使用到的硬件設備如下:

  1. 主控板:米爾MYD-YT507開發板
  2. 攝像頭:海康威視DS-E11 720P USB攝像頭
  3. 存儲卡:閃迪32GB高速MicroSD存儲卡
  4. 路由器:云來寶盒無線路由器
    image.png

路由器沒有拍照,用普通無線路由器即可,當然帶寬越高越好。

開發板上有兩個USB3.0接口,選一個接上路由器即可。

然后,將開發板使用網線連接到路由器,再上電,就可以進行實際的操作了。

我這邊實際使用中,電源接口有點松,容易突然斷電,所以使用膠帶進行了加固。

三、攝像頭實時畫面播放服務開發

在之前嘗試MJPEG視頻流直播的時候,使用了mjpeg_streamer,但不清楚如何進行視頻的分割。

因為行車記錄儀,一般都是按照一定的時間進行視頻的分割存放,避免單個視頻過大。

經過仔細的學習了解,OpenCV也可以獲取攝像頭的信息,并按照需要寫入文件。

最后,采用了Python+OpenCV的方案,有Python負責具體的邏輯,Python-OpenCV負責攝像頭視頻數據的采集。

視頻采集部分,包含的具體功能為:

  1. 能夠采集攝像頭的數據
  2. 能夠提供實時視頻查看
  3. 能夠按時間寫入視頻數據到文件,自動進行分割

采集攝像頭的數據,Python-opencv搞定。

寫入視頻數據到文件,Python簡單搞定。

提供實時視頻預覽,這個花了不少功夫。

因為同時要寫入到文件,還要提供預覽,數據需要復用。

經過學習了解,可以將Python-opencv采集的畫面,按幀在HTTP以JPEG數據發送,那么播放端,就能收到MJPEG數據流,進行播放了。

因此,第一版,參考資料,實現了一個Python版的MJPEG播放服務,讀取幀,寫入臨時文件,然后從臨時文件讀取數據返回。

為了提高效率,還進行了優化,不寫入臨時文件,直接在內存中進行轉換。

最終形成的代碼如下:

# http服務器請求處理:網頁、MJPEG數據流
class CamHandler(BaseHTTPRequestHandler):
    def do_GET(self):
        # mjpeg推流
        if self.path.endswith('.mjpg'):
            self.send_response(200)
            self.send_header('Content-type','multipart/x-mixed-replace; boundary=--jpgboundary')
            self.end_headers()
            while True:
                if is_stop:
                    break
                try:
                    # rc,img = cameraCapture.read()
                    rc,img = success,frame
                    if not rc:
                        continue
                    if True:
                        imgRGB=cv2.cvtColor(img,cv2.COLOR_BGR2RGB)
                        jpg = Image.fromarray(imgRGB)
                        tmpFile = BytesIO()
                        jpg.save(tmpFile,'JPEG')
                        self.wfile.write(b"--jpgboundary")
                        self.send_header(b'Content-type','image/jpeg')
                        self.send_header(b'Content-length',str(tmpFile.getbuffer().nbytes))
                        self.end_headers()
                        jpg.save(self.wfile,'JPEG')
                    else:
                        img_fps = JPEG_QUALITY_VALUE
                        img_param = [int(cv2.IMWRITE_JPEG_QUALITY), img_fps]
                        img_str = cv2.imencode('.jpg', img, img_param)[1].tobytes() # change image to jpeg format
                        self.send_header('Content-type','image/jpeg')
                        self.end_headers()
                        self.wfile.write(img_str)
                        self.wfile.write(b"
--jpgboundary
") # end of this part
                    time.sleep(0.033)
                except KeyboardInterrupt:
                    self.wfile.write(b"
--jpgboundary--
")
                    break
                except BrokenPipeError:
                    continue
            return
        # 網頁
        if self.path == '/' or self.path.endswith('.html'):
            self.send_response(200)
            self.send_header('Content-type','text/html')
            self.end_headers()
            self.wfile.write(b'
') self.wfile.write(('live.mjpg' % self.headers.get('Host')).encode()) self.wfile.write(b'') return

這段代碼,提供了兩個功能:

  1. 如果通過瀏覽器訪問http://ip:端口/index.html,就會返回包含MJPEG調用地址的網頁
  2. 如果通過瀏覽器訪問http://ip:端口/live.mjpg,就會返回MJPEG流媒體數據,以便播放

在開發過程中,運行該服務后,隨時可以通過瀏覽器查看效果。

其中涉及到opencv相關的知識,以及webserver相關的知識,大家可以了解相關的資料做基礎,這里就不詳細說了。

本來以為提供了MJPEG服務,就能夠在Flutter開發的Web界面中調用了。然而,實際使用時,發現坑來了。

Flutter的公共庫里面,有MJPEG的庫,但是在目前的版本中,已經不能使用了。且官方認為用的人不多,在可預見的將來,不會修復。悲催啊!!!

條條大道通羅馬,此處不通開新路。

經過再次的學習了解,Flutter的Video功能,支持Stream模式,其可以采用WebSocket的方式來獲取數據,然后進行播放。

那么,只要能夠在服務端,將獲取的幀數據,使用WebSocket提供,就能夠正常播放了。

最終,使用Python開發了能夠提供實時視頻數據的WebSocket服務,具體代碼如下:

# websocket服務請求處理
async def CamTransmitHandler(websocket, path):
    print("Client Connected !")
    try :
        while True:
            # rc,img = cameraCapture.read()
            rc,img = success,frame
            if not rc:
                continue

            img_fps = JPEG_QUALITY_VALUE
            img_param = [int(cv2.IMWRITE_JPEG_QUALITY), img_fps]
            encoded = cv2.imencode('.jpg', img, img_param)[1]
            data = str(base64.b64encode(encoded))
            data = data[2:len(data)-1]
            await websocket.send(data)

            # cv2.imshow("Transimission", frame)
            # if cv2.waitKey(1) & 0xFF == ord('q'):
            #     break
        # cap.release()
    except EXCEPTION_CONNECTION_CLOSE as e:
        print("Client Disconnected !")
        # cap.release()
    except:
        print("Someting went Wrong !")

這個部分比之前的更簡單,就是簡單的轉換數據,喂數據給WebSocket即可。

上述的兩部分代碼中,都沒有包含完整的邏輯處理過程,只有關鍵代碼部分。

各部分分別講完以后,將提供完整的代碼以供學習。

到這里,實時流媒體功能就實現了。

四、攝像頭視頻信息記錄

實際上,上一步的實時視頻功能,也依賴于這一步,因為其需要共享實際獲取的攝像頭信息。

其基本邏輯也比較簡單,步驟如下:

  1. 初始化opencv,開始攝像頭數據幀的獲取
  2. 檢測是否達到預定時間
  3. 未達到時間,則繼續寫入當前視頻
  4. 達到時間了,則關閉當前視頻,寫入縮略圖,并開啟新的文件寫入

具體代碼如下:

# 捕獲攝像頭
cameraCapture = cv2.VideoCapture(CAMERA_NO)

# 攝像頭參數設置
cameraCapture.set(cv2.CAP_PROP_FRAME_WIDTH, 320)
cameraCapture.set(cv2.CAP_PROP_FRAME_WIDTH, 240)
cameraCapture.set(cv2.CAP_PROP_SATURATION, 135)

fps = 30
size=(int(cameraCapture.get(cv2.CAP_PROP_FRAME_WIDTH)),int(cameraCapture.get(cv2.CAP_PROP_FRAME_HEIGHT)))

# 讀取捕獲的數據
success,frame = cameraCapture.read()

...

while True:
    if is_stop:
        success = False
        break;

    success,frame = cameraCapture.read()
    if not success:
        continue

    time_now = get_current_time()
    if time_now["time"] - time_record["time"] >= ROTATE_TIME:
        if time_record_prev:
            thubm_file = get_file_name(time_record_prev, 'thumbs', 'jpg')
            print("[Info] write to thumb: %s" % thubm_file)
            if not os.path.isfile(thubm_file):
                cv2.imwrite(thubm_file, frame)

        time_record = time_now
        time_record_prev = get_current_time()
        video_file = get_file_name(time_record_prev, 'videos', MEDIA_EXT)
        print("[Info] write to video: %s" % video_file)

    # encode = cv2.VideoWriter_fourcc(*"mp4v")
    encode = cv2.VideoWriter_fourcc(*'X264')
    # encode = cv2.VideoWriter_fourcc(*'AVC1')
    # encode = cv2.VideoWriter_fourcc(*'XVID')
    # encode = cv2.VideoWriter_fourcc(*'H264')
    videoWriter=cv2.VideoWriter(video_file, encode,fps,size) # mp4
    numFrameRemaining = ROTATE_TIME * fps    #攝像頭捕獲持續時間
    while success and numFrameRemaining > 0:
        videoWriter.write(frame)
        success,frame = cameraCapture.read()
        numFrameRemaining -= 1

cameraCapture.release()

上述代碼的邏輯其實很清晰,有opencv的基礎,一看就懂。

有一個關鍵點需要注意的就是encode = cv2.VideoWriter_fourcc(*'X264'),在不同的環境下面,提供的編碼方式不完全相同。

在米爾MYD-YT507開發板的Ubuntu環境中,可以使用X264編碼。

上述代碼,會持續不斷的讀取攝像頭的數據幀,存放到frame變量中,然后寫入到視頻文件中。并進行時間判斷,以確定是否需要寫入到新的視頻文件中。

frame變量,在之前實時視頻服務中,也會使用,相當于是共享了。

五、攝像頭服務的完整代碼

經過上面的兩個部分,就完成了攝像頭部分的服務代碼。

整體的代碼如下:

# -*- coding: utf-8 -*-
import signal
import cv2
import time
from PIL import Image
from threading import Thread
from http.server import BaseHTTPRequestHandler,HTTPServer
from socketserver import ThreadingMixIn
from io import BytesIO

import os
import sys
import websockets
import asyncio
import base64
import ctypes
import inspect

CAMERA_NO = 2
ROTATE_TIME = 120
MJPEG_ENABLE = 1
WEBSOCKET_ENABLE = 1
MJPEG_SERVER_PORT = 28888
WEBSOCKET_PORT = 28889
JPEG_QUALITY_VALUE = 65
STORE_DIR = "./data/" if os.uname()[0] == 'Darwin' else "/sdcard/data/"
MEDIA_EXT = "mkv"

EXCEPTION_CONNECTION_CLOSE = websockets.exceptions.ConnectionClosed if sys.version[:3] == '3.6' else websockets.ConnectionClosed

def _async_raise(tid, exctype):
    """raises the exception, performs cleanup if needed"""
    try:
        tid = ctypes.c_long(tid)
        if not inspect.isclass(exctype):
            exctype = type(exctype)
        res = ctypes.pythonapi.PyThreadState_SetAsyncExc(tid, ctypes.py_object(exctype))
        if res == 0:
            # pass
            raise ValueError("invalid thread id")
        elif res != 1:
            # """if it returns a number greater than one, you're in trouble,
            # and you should call it again with exc=NULL to revert the effect"""
            ctypes.pythonapi.PyThreadState_SetAsyncExc(tid, None)
            raise SystemError("PyThreadState_SetAsyncExc failed")
    except Exception as err:
        print(err)


def stop_thread(thread):
    """終止線程"""
    _async_raise(thread.ident, SystemExit)

# 信號處理回調
def signal_handler(signum, frame):
    # global cameraCapture
    # global thread
    # global server
    # global is_stop
    # global success
    print('signal_handler: caught signal ' + str(signum))
    if signum == signal.SIGINT.value:
        print('stop server:')
        is_stop = True
        success = False
        print("mjpeg server.socket.close...")
        server.socket.close()
        print("mjpeg server.shutdown...")
        server.shutdown()
        print("ws server.socket.close...")
        server_ws.ws_server.close()
        time.sleep(1)
        # print("ws server.shutdown...")
        # await server_ws.ws_server.wait_closed()
        print("mjpeg thread.shutdown...")
        thread_mjpeg.join()
        print("ws loop.shutdown...")  
        # event_loop_ws.stop()
        event_loop_ws.call_soon_threadsafe(event_loop_ws.stop)
        time.sleep(1)
        # print("ws thread.shutdown...")  
        # stop_thread(thread_ws)
        # time.sleep(1)
        # print(server)
        # print(server_ws)
        print(thread_mjpeg.is_alive())
        print(thread_ws.is_alive())
        print(event_loop_ws.is_running())
        # thread_ws.join()
        print("cameraCapture.release...")
        cameraCapture.release()
        print("quit...")
        # print(server_ws)
        sys.exit(0)

# http服務器請求處理:網頁、MJPEG數據流
class CamHandler(BaseHTTPRequestHandler):
    def do_GET(self):
        # mjpeg推流
        if self.path.endswith('.mjpg'):
            self.send_response(200)
            self.send_header('Content-type','multipart/x-mixed-replace; boundary=--jpgboundary')
            self.end_headers()
            while True:
                if is_stop:
                    break
                try:
                    # rc,img = cameraCapture.read()
                    rc,img = success,frame
                    if not rc:
                        continue
                    if True:
                        imgRGB=cv2.cvtColor(img,cv2.COLOR_BGR2RGB)
                        jpg = Image.fromarray(imgRGB)
                        tmpFile = BytesIO()
                        jpg.save(tmpFile,'JPEG')
                        self.wfile.write(b"--jpgboundary")
                        self.send_header(b'Content-type','image/jpeg')
                        self.send_header(b'Content-length',str(tmpFile.getbuffer().nbytes))
                        self.end_headers()
                        jpg.save(self.wfile,'JPEG')
                    else:
                        img_fps = JPEG_QUALITY_VALUE
                        img_param = [int(cv2.IMWRITE_JPEG_QUALITY), img_fps]
                        img_str = cv2.imencode('.jpg', img, img_param)[1].tobytes() # change image to jpeg format
                        self.send_header('Content-type','image/jpeg')
                        self.end_headers()
                        self.wfile.write(img_str)
                        self.wfile.write(b"
--jpgboundary
") # end of this part
                    time.sleep(0.033)
                except KeyboardInterrupt:
                    self.wfile.write(b"
--jpgboundary--
")
                    break
                except BrokenPipeError:
                    continue
            return
        # 網頁
        if self.path == '/' or self.path.endswith('.html'):
            self.send_response(200)
            self.send_header('Content-type','text/html')
            self.end_headers()
            self.wfile.write(b'
') self.wfile.write(('live.mjpg' % self.headers.get('Host')).encode()) self.wfile.write(b'') return class ThreadedHTTPServer(ThreadingMixIn, HTTPServer): """Handle requests in a separate thread.""" # 啟動MJPEG服務 def mjpeg_server_star(): global success global server global thread_mjpeg try: server = ThreadedHTTPServer(('0.0.0.0', MJPEG_SERVER_PORT), CamHandler) print("mjpeg server started: http://0.0.0.0:%d" % MJPEG_SERVER_PORT) # server.serve_forever() thread_mjpeg = Thread(target=server.serve_forever); thread_mjpeg.start() except KeyboardInterrupt: print("mjpeg server stoping...") server.socket.close() server.shutdown() print("mjpeg server stoped") # websocket服務請求處理 async def CamTransmitHandler(websocket, path): print("Client Connected !") try : while True: # rc,img = cameraCapture.read() rc,img = success,frame if not rc: continue img_fps = JPEG_QUALITY_VALUE img_param = [int(cv2.IMWRITE_JPEG_QUALITY), img_fps] encoded = cv2.imencode('.jpg', img, img_param)[1] data = str(base64.b64encode(encoded)) data = data[2:len(data)-1] await websocket.send(data) # cv2.imshow("Transimission", frame) # if cv2.waitKey(1) & 0xFF == ord('q'): # break # cap.release() except EXCEPTION_CONNECTION_CLOSE as e: print("Client Disconnected !") # cap.release() except: print("Someting went Wrong !") # websocket服務器啟動 def websocket_server_start(): global thread_ws global server_ws global event_loop_ws event_loop_ws = asyncio.new_event_loop() def run_server(): global server_ws print("websocket server started: ws://0.0.0.0:%d" % WEBSOCKET_PORT) server_ws = websockets.serve(CamTransmitHandler, port=WEBSOCKET_PORT, loop=event_loop_ws) event_loop_ws.run_until_complete(server_ws) event_loop_ws.run_forever() thread_ws = Thread(target=run_server) thread_ws.start() # try: # yield # except e: # print("An exception occurred") # finally: # event_loop.call_soon_threadsafe(event_loop.stop) # 獲取存儲的文件名 def get_file_name(time_obj, path, ext): file_name_time = "%04d-%02d-%02d_%02d-%02d-%02d" % (time_obj["year"], time_obj["month"], time_obj["day"], time_obj["hour"], time_obj["min"], 0) return '%s/%s/%s.%s' % (STORE_DIR, path, file_name_time, ext) # 獲取當前整分時間 def get_current_time(): time_now = time.localtime() time_int = int(time.time()) return { "year": time_now.tm_year, "month": time_now.tm_mon, "day": time_now.tm_mday, "hour": time_now.tm_hour, "min": time_now.tm_min, "sec": time_now.tm_sec, "time": time_int - time_now.tm_sec } # 設置信號回調 signal.signal(signal.SIGINT, signal_handler) signal.signal(signal.SIGTERM, signal_handler) # 捕獲攝像頭 cameraCapture = cv2.VideoCapture(CAMERA_NO) # 攝像頭參數設置 cameraCapture.set(cv2.CAP_PROP_FRAME_WIDTH, 320) cameraCapture.set(cv2.CAP_PROP_FRAME_WIDTH, 240) cameraCapture.set(cv2.CAP_PROP_SATURATION, 135) fps = 30 size=(int(cameraCapture.get(cv2.CAP_PROP_FRAME_WIDTH)),int(cameraCapture.get(cv2.CAP_PROP_FRAME_HEIGHT))) # 讀取捕獲的數據 success,frame = cameraCapture.read() if not success: print("camera start failed.") quit() is_stop = False server = None server_ws = None event_loop_ws = None thread_mjpeg = None thread_ws = None mjpeg_server_star() websocket_server_start() print("record server star:") thubm_file = None video_file = None time_start = int(time.time()) time_record = {"time":0} time_record_prev = None while True: if is_stop: success = False break; success,frame = cameraCapture.read() if not success: continue time_now = get_current_time() if time_now["time"] - time_record["time"] >= ROTATE_TIME: if time_record_prev: thubm_file = get_file_name(time_record_prev, 'thumbs', 'jpg') print("[Info] write to thumb: %s" % thubm_file) if not os.path.isfile(thubm_file): cv2.imwrite(thubm_file, frame) time_record = time_now time_record_prev = get_current_time() video_file = get_file_name(time_record_prev, 'videos', MEDIA_EXT) print("[Info] write to video: %s" % video_file) # encode = cv2.VideoWriter_fourcc(*"mp4v") encode = cv2.VideoWriter_fourcc(*'X264') # encode = cv2.VideoWriter_fourcc(*'AVC1') # encode = cv2.VideoWriter_fourcc(*'XVID') # encode = cv2.VideoWriter_fourcc(*'H264') videoWriter=cv2.VideoWriter(video_file, encode,fps,size) # mp4 numFrameRemaining = ROTATE_TIME * fps #攝像頭捕獲持續時間 while success and numFrameRemaining > 0: videoWriter.write(frame) success,frame = cameraCapture.read() numFrameRemaining -= 1 cameraCapture.release()

在上述代碼中,除了前面說過的三個部分,還包括啟動web和websocket線程的部分。因為核心邏輯為讀取視頻數據并寫入文件,所以其他部分,以線程的模式啟動,以便同時進行處理。

將上述代碼保存為DrivingRecorderAndMjpegServer.py,然后運行即可。(依賴包,見代碼庫中requirements.txt)

Snipaste_2022-09-03_22-37-21.png

實際訪問效果如下:

Snipaste_2022-09-03_22-39-34.png

六、歷史數據RestFul服務開發

歷史數據服務,本來也可以使用Python直接手寫,但考慮到可擴展性,使用Django來進行了編寫。

Djano服務,需要提供如下的功能:

  1. 提供api接口,以便獲取歷史數據記錄列表,便于前端界面呈現展示
  2. 提供Flutter Web界面代碼文件的托管,以便通過瀏覽器訪問
  3. 提供靜態文件的訪問,例如查看歷史視頻文件

2和3本質都是一個問題,通過Django的static功能,就能實現。

也就是在settings.py配置中,提供下面的配置即可:

STATIC_URL = 'static/'

STATICFILES_DIRS = [
    BASE_DIR / "static"
]

1對外提供api服務,則需要設置對應的url接口,以及讀取歷史文件信息,生成前端需要的json數據結構,這部分的具體代碼如下:

# 媒體文件存放目錄,以及縮略圖和視頻文件的后綴
THUMB_HOME_DIR = "%s/%s/data/thumbs/" % (BASE_DIR, STATIC_URL)
VIDEO_HOME_DIR = "%s/%s/data/videos/" % (BASE_DIR, STATIC_URL)

IMG_FILTER = [".jpg"]
MEDIA_FILTER = [ ".mkv"]
import json
from django.shortcuts import render, HttpResponse
from rest_framework.response import Response
from rest_framework.permissions import AllowAny
from rest_framework.decorators import api_view, permission_classes
import os
from django.conf import settings

THUMB_HOME_DIR = settings.THUMB_HOME_DIR
VIDEO_HOME_DIR = settings.VIDEO_HOME_DIR
IMG_FILTER = settings.IMG_FILTER
MEDIA_FILTER = settings.MEDIA_FILTER

# Create your views here.
@api_view(['GET'],)
@permission_classes([AllowAny],)
def hello_django(request):
    str = '''[
  {
    "id": 1,
    "time": "2022-07-28 21:00",
    "title": "2022-07-28 21:00",
    "body": "videos/2022-07-28_2100.mp4"
  },
  {
    "id": 2,
    "time": "2022-07-28 23:00",
    "title": "2022-07-28 23:00",
    "body": "videos/2022-07-28_2300.mp4"
  },
  {
    "id": 3,
    "time": "2022-07-28 25:00",
    "title": "2022-07-28 25:00",
    "body": "videos/2022-07-28_2500.mp4"
  }
]'''
    _json = json.loads(str)
    return HttpResponse(json.dumps(_json), content_type='application/json')


@api_view(['GET'],)
@permission_classes([AllowAny],)
def history_list(request):
    next = request.GET.get("next", '')
    print(f"thumb next = {next}")
    path = "/".join(request.path.split("/")[3:])
    print(f"thumb request.path= {request.path}")
    print(f"thumb path = {path}")

    #print os.listdir(FILE_HOME_DIR+".none/")
    data = {"files":[], "dirs":[]}
    print(data)
    child_path = THUMB_HOME_DIR+next
    print(f"child_path = {child_path}")
    data['cur_dir'] = path+next
    print(data)
    for dir in os.listdir(child_path):
        if os.path.isfile(child_path+"/"+dir):
            if os.path.splitext(dir)[1] in IMG_FILTER:
                data['files'].append(dir)
        else:
            data['dirs'].append(dir)

    print(data)
    data['files']=sorted(data['files'])
    data['files'].reverse()
    data['infos'] = []

    for i in range(0,len(data['files'])):
        thumb_name = data['files'][i]
        video_name = thumb_name.replace('.jpg', MEDIA_FILTER[0])
        file_time = thumb_name.replace('.jpg', '').replace('_', ' ')
        data['infos'].append(
          {
            "id": i,
            "time": file_time,
            "title": file_time,
            "body": thumb_name,
            'thumb': thumb_name, 
            'video': video_name
          }
        )
    return Response(data['infos'], status = 200)

其中有兩個接口:

hello_django是最開始學習使用的,返回寫死的json數據。

history_list,則是自動遍歷縮略圖文件夾,獲取縮略圖文件信息,并生成所需要的json數據格式。

在對應的代碼庫文件中,也包含了requirements.txt,其中標明了實際需要的依賴庫。

下載代碼,進入manage.py所在的目錄后,執行下面的命令即可啟動:

image.png

訪問192.168.1.15:8000/app/hellodjango

image.png

訪問:History List – Django REST framework

image.png

可以看到 history_list接口,已經可以提供實際需要的數據了。

七、Flutter Web界面開發

這個部分設計的代碼比較多,所以只對關鍵部分的代碼進行說明。

開發的實際代碼,位于lib目錄,具體為:

image.png

  • globals.dart:全局變量定義
  • main.dart:程序入口
  • home_page.dart:首頁
  • live_page.dart:實時播放
  • live_page_mp4.dart:測試播放mp4視頻
  • history_page.dart:歷史記錄列表頁面
  • video_detail.dart:單條歷史記錄詳情
  • video_play.dart:播放具體的歷史視頻
  • video_model.dart:單條記錄的數據模型
  • http_service.dart:請求RestFul接口
  • websocket.dart:實時視頻的WebSocket請求

整個界面,使用了Scaffold模擬手機/Pad的操作界面,具體界面如下:

image.png

在實時畫面界面中,使用了WebSocket監聽,獲取到信息,就使用Stream模式,推送給視頻播放。

在歷史記錄界面中,則通過RestFul請求列表數據,然后呈現。

八、整體運行效果

實際的運行效果,不用多說,看界面就成:

  1. 實時畫面:Snipaste_2022-09-03_23-09-04.png
  2. 歷史記錄列表:Snipaste_2022-09-03_23-09-15.png
  3. 歷史記錄播放:Snipaste_2022-09-03_23-09-25.png

九、車試:

經過反復的測試驗證,確保各項功能完整后,進行了上車實測。

image.png

因為最近的疫情原因,所以只在村里轉了一圈,進行了實際測試,可以查看最后的視頻。后續有機會,再找個晴朗的天氣,去環境優美的地方實際拍攝錄制。

十、實際代碼說明:

完整的代碼,請通過米爾行車記錄儀: 米爾行車記錄儀 (https://gitee.com/honestqiao/MYiR-Driving-Recorder)獲取。

代碼目錄說明如下:

  • DrivingRecorder:攝像頭服務
  • backend:RestFul服務
  • frontend:Flutter Web界面

在以上倉庫中,包含了詳細的代碼使用說明。

在實際應用中,將記錄視頻的data目錄與后端static/data目錄關聯,以便兩者統一。

十一、感謝

在研究學習的過程中,參考了數十篇各類資料,先將部分列出如下。對所有學習過的資料的作者,表示深深的感謝。

十二、總結

在研究學習的過程中,對Linux系統下的UVC框架有了進一步的了解,對Flutter進行應用開發有了實際的了解,對OpenCV的實際應用也有了具體的了解。

在實際開發的過程中,遇到的最大的坑來自Flutter,因為變化太快,有一些功能可能兼容性沒有跟上。不過更多是自己學藝不精導致的。

另外,目前還只是V1.0版本,后續還存在較大的優化空間。例如對于OpenCV的應用,可以調整參數,優化獲取的視頻數據的指令和大小等。這些有待于進一步學習后進行。

最主要的,對米爾MYD-YT507開發板有了深入的了解,進行了實際的應用。作為一款車規級處理器T507的開發板,名不虛傳!

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 米爾科技
    +關注

    關注

    5

    文章

    227

    瀏覽量

    21142
收藏 人收藏

    評論

    相關推薦

    有獎丨米爾 全志T536開發板免費試用

    米爾與全志合作發布的新品基于全志T536應用處理器的MYD-LT536-GK開發板免費試用活動來啦~~米爾提供了3塊價值750元的
    的頭像 發表于 12-26 08:05 ?311次閱讀
    有獎丨<b class='flag-5'>米爾</b> 全志T536<b class='flag-5'>開發板</b>免費<b class='flag-5'>試用</b>

    人臉疲勞檢測應用-米爾基于RK3576核心/開發板

    本文將介紹基于米爾電子MYD-LR3576開發板米爾基于瑞芯微RK3576開發板)的人臉疲勞檢測方案測試。
    的頭像 發表于 12-20 08:06 ?418次閱讀
    人臉疲勞檢測應用-<b class='flag-5'>米爾</b>基于RK3576核心<b class='flag-5'>板</b>/<b class='flag-5'>開發板</b>

    如何用OpenCV進行手勢識別--基于米爾全志T527開發板

    本文將介紹基于米爾電子MYD-LT527開發板米爾基于全志T527開發板)的OpenCV手勢識
    的頭像 發表于 12-13 08:04 ?877次閱讀
    如何用<b class='flag-5'>OpenCV</b>進行手勢識別--基于<b class='flag-5'>米爾</b>全志T527<b class='flag-5'>開發板</b>

    米爾-Xilinx XC7A100T FPGA開發板試用】測試一

    感謝米爾電子和電子發燒友提供的米爾-Xilinx XC7A100T FPGA開發板MYD-J7A100T用的 FPGA 為 XILINX 公司 ARTIX-7 系列的 XC 7A1
    發表于 12-08 08:48

    FacenetPytorch人臉識別方案--基于米爾全志T527開發板

    本篇測評由電子工程世界的優秀測評者“小火苗”提供。本文將介紹基于米爾電子MYD-LT527開發板米爾基于全志T527開發板)的Facene
    的頭像 發表于 11-28 15:12 ?417次閱讀
    FacenetPytorch人臉識別方案--基于<b class='flag-5'>米爾</b>全志T527<b class='flag-5'>開發板</b>

    追加名額丨米爾瑞芯微RK3576開發板有獎試用

    米爾與瑞芯微合作發布的新品基于瑞芯微RK3576應用處理器的MYD-LR3576開發板免費試用活動加碼啦~~米爾追加了2塊價值849元的
    的頭像 發表于 11-22 01:00 ?292次閱讀
    追加名額丨<b class='flag-5'>米爾</b>瑞芯微RK3576<b class='flag-5'>開發板</b>有獎<b class='flag-5'>試用</b>

    米爾-Xilinx XC7A100T FPGA開發板試用】+01.開箱(zmj)

    米爾-Xilinx XC7A100T FPGA開發板試用】+01.開箱(zmj) 1.感謝 感謝米爾電子和電子發燒友提供的此次試用機會,可
    發表于 11-12 15:45

    有獎丨米爾 瑞芯微RK3576開發板免費試用

    米爾與瑞芯微合作發布的新品基于瑞芯微RK3576應用處理器的MYD-LR3576開發板免費試用活動來啦~~米爾提供了7塊價值849元的
    的頭像 發表于 11-12 01:00 ?432次閱讀
    有獎丨<b class='flag-5'>米爾</b> 瑞芯微RK3576<b class='flag-5'>開發板</b>免費<b class='flag-5'>試用</b>

    基于OPENCV的相機捕捉視頻進行人臉檢測--米爾NXP i.MX93開發板

    本文將介紹基于米爾電子MYD-LMX93開發板米爾基于NXPi.MX93開發板)的基于OpenCV
    的頭像 發表于 11-07 09:03 ?1178次閱讀
    基于<b class='flag-5'>OPENCV</b>的相機捕捉視頻進行人臉檢測--<b class='flag-5'>米爾</b>NXP i.MX93<b class='flag-5'>開發板</b>

    點擊參與米爾NXP i.MX 93開發板有獎試用

    米爾與NXP合作發布的新品基于NXPi.MX93應用處理器的MYD-LMX9X開發板免費試用活動來啦~~米爾提供了3塊價值678元的
    的頭像 發表于 06-13 08:02 ?631次閱讀
    點擊參與<b class='flag-5'>米爾</b>NXP i.MX 93<b class='flag-5'>開發板</b>有獎<b class='flag-5'>試用</b>

    米爾NXP i.MX 93開發板的Qt開發指南

    1.概述Qt是一個跨平臺的圖形應用開發框架,被應用在不同尺寸設備和平臺上,同時提供不同版權版本供用戶選擇。米爾NXPi.MX93開發板MYD-LMX9X
    的頭像 發表于 06-07 08:01 ?1863次閱讀
    <b class='flag-5'>米爾</b>NXP i.MX 93<b class='flag-5'>開發板</b>的Qt<b class='flag-5'>開發</b>指南

    免費!NXP i.MX 93開發板有獎試用

    米爾與NXP合作發布的新品基于NXPi.MX93應用處理器的MYD-LMX9X開發板免費試用活動來啦~~米爾提供了2塊價值678
    的頭像 發表于 05-23 08:01 ?807次閱讀
    免費!NXP i.MX 93<b class='flag-5'>開發板</b>有獎<b class='flag-5'>試用</b>

    通過物聯網管理多臺MQTT設備-基于米爾T527開發板

    本篇測評由電子工程世界的優秀測評者“JerryZhen”提供。本文將介紹基于米爾電子MYD-LT527開發板的網關方案測試。一、系統概述基于米爾-全志T527設計一個簡易的物聯網網關,
    的頭像 發表于 05-10 08:01 ?762次閱讀
    通過物聯網管理多臺MQTT設備-基于<b class='flag-5'>米爾</b>T527<b class='flag-5'>開發板</b>

    G2D圖像處理硬件調用和測試-基于米爾-全志T113-i開發板

    本篇測評由電子工程世界的優秀測評者“jf_99374259”提供。本文將介紹基于米爾電子MYD-YT113i開發板的G2D圖像處理硬件調用和測試。MYC-YT113i核心
    的頭像 發表于 04-12 08:01 ?803次閱讀
    G2D圖像處理硬件調用和測試-基于<b class='flag-5'>米爾</b>-全志T113-i<b class='flag-5'>開發板</b>

    米爾-全志T113-i開發板試用】發布opencv-mobile米爾t113i專享預編譯包

    MYC-YT113i核心開發板 真正的國產核心,100%國產物料認證 國產T113-i處理器配備2*Cortex-A7@1.2GHz ,RISC-V 外置DDR3接口、支持視頻編
    發表于 02-25 20:23
    主站蜘蛛池模板: 国产亚洲自在精品久久 | 欧美黄色大全 | 亚洲精品美女久久久 | 天天爽夜夜爽免费看 | 欧美性f | 亚洲综合色一区二区三区小说 | 国产一级aa大片毛片 | 日韩精品一区二区三区免费视频 | 国产大片免费观看中文字幕 | 色爱区综合激情五月综合激情 | 九九热免费观看 | 成人毛片一区二区三区 | 亚洲一区二区三区电影 | 你懂的在线观看网站 | 超级乱淫伦网站 | 黄色一级大片视频 | 一级特黄女毛毛片 | 亚洲色图视频在线 | 狠狠色丁香婷婷综合久久片 | 天天看天天爽 | 2019天天操天天干天天透 | 亚洲一区二区在线播放 | 色草视频 | 免费公开在线视频 | 在线女同免费观看网站 | 一级毛片免费全部播放完整 | 婷婷色在线观看 | 成人午夜大片免费7777 | 视色4se视频在线观看 | h视频免费观看 | 优优优色| 超色视频| 天天干夜夜添 | 日本不卡1| 狠狠躁夜夜躁人人爽天天天天 | 国产高清小视频 | 国产一级特黄aa级特黄裸毛片 | 欧美午夜精品久久久久久黑人 | 99色视频在线 | 黑人40厘米全进去xxxx猛交 | 亚洲插|