GoSuda

Végponti válaszidő csökkentése Go nyelven – Munkasorok használata

By Yunjin Lee
views ...

Áttekintés

Amikor valaki először tanul Go-t, gyakran a backend szerverek implementálásán keresztül teszi. Vegyünk például egy olyan esetet, amikor RestAPI-ból fájlfolyamot fogadó és szerverre feltöltő példát készítünk. A Go nyelv net/http szervere alapértelmezés szerint több kérést is képes egyidejűleg kezelni, így a párhuzamos feltöltések önmagukban nem jelentenek problémát. Azonban, ha a folyam fogadása utáni összes műveletet szinkron módon kezeljük, az végpont válaszának késleltetését okozhatja. Tekintsük át azokat a technikákat, amelyekkel megelőzhetjük ezt a helyzetet.

Ok

A stream fogadása általában hosszú időt vesz igénybe, és nagyméretű fájlok esetén egyetlen kérés feldolgozása akár percekig is tarthat. Ilyen esetekben fontos, hogy a stream fogadása utáni műveleteket a lehető leggyorsabban feldolgozzuk. Ez a példaforgatókönyv a stream fogadását, ideiglenes fájlba mentését és konténerbe való küldését írja le. Ebben az esetben, ha az ideiglenes fájl konténerbe való küldését worker pool-lal kezeljük, csökkenthetjük a válaszkésleltetést.

 1package file_upload
 2
 3import (
 4	"fmt"
 5	"io"
 6	"log"
 7	"net/http"
 8	"os"
 9	"path/filepath"
10	"time"
11)
12
13const uploadTempDir = "/tmp/incus_uploads" // Host temporary directory
14
15// UploadTask holds data for asynchronous file push.
16type UploadTask struct {
17	HostTempFilePath         string
18	ContainerName            string
19    HostFilename             string
20	ContainerDestinationPath string
21}
22
23// UploadHandler processes file uploads. Saves to temp file, then queues for Incus push.
24func UploadHandler(wr http.ResponseWriter, req *http.Request) {
25	if req.Method != http.MethodPost {
26		http.Error(wr, "POST method required.", http.StatusMethodNotAllowed)
27		return
28	}
29	originalFilePath := req.Header.Get("X-File-Path")
30    originalFilename := filepath.Base(req.Header.Get("X-Host-Path"))
31	containerName := req.Header.Get("X-Container-Name")
32	if originalFilePath == "" || containerName == "" {
33		http.Error(wr, "Missing X-File-Path or X-Container-Name header.", http.StatusBadRequest)
34		return
35	}
36
37	cleanContainerDestPath := filepath.Clean(originalFilePath)
38	if !filepath.IsAbs(cleanContainerDestPath) {
39		http.Error(wr, "File path must be absolute.", http.StatusBadRequest)
40		return
41	}
42
43	// Egyedi ideiglenes fájlútvonal létrehozása a hoston
44	tempFileName := fmt.Sprintf("%d-%s", time.Now().UnixNano(), filepath.Base(originalFilePath))
45	hostTempFilePath := filepath.Join(uploadTempDir, tempFileName)
46
47	if err := os.MkdirAll(uploadTempDir, 0755); err != nil {
48		log.Printf("ERROR: Failed to create temp upload directory: %v", err)
49		http.Error(wr, "Server error.", http.StatusInternalServerError)
50		return
51	}
52
53	// Ideiglenes fájl létrehozása és a kérés törzsének másolása (szinkron)
54	outFile, err := os.Create(hostTempFilePath)
55	if err != nil {
56		log.Printf("ERROR: Failed to create temporary file: %v", err)
57		http.Error(wr, "Server error.", http.StatusInternalServerError)
58		return
59	}
60	defer outFile.Close()
61
62	bytesWritten, err := io.Copy(outFile, req.Body)
63	if err != nil {
64		outFile.Close()
65		os.Remove(hostTempFilePath)
66		log.Printf("ERROR: Failed to copy request body to temp file: %v", err)
67		http.Error(wr, "File transfer failed.", http.StatusInternalServerError)
68		return
69	}
70	log.Printf("Upload Info: Received %d bytes, saved to %s.", bytesWritten, hostTempFilePath)
71
72	// Feladat sorba állítása aszinkron Incus push-hoz
73	task := UploadTask{
74		HostTempFilePath:         hostTempFilePath,
75		ContainerName:            containerName,
76        HostFilename :            originalFilename,
77		ContainerDestinationPath: cleanContainerDestPath,
78	}
79	EnqueueTask(task) //EZ A RÉSZ
80	log.Printf("Upload Info: Task enqueued for %s to %s.", originalFilePath, containerName)
81
82	// Azonnali 202 Accepted válasz küldése
83	wr.WriteHeader(http.StatusAccepted)
84	fmt.Fprintf(wr, "File '%s' queued for processing on container '%s'.\n", originalFilename, containerName)
85}

Ahol "THIS PART" van jelölve, ott észrevehette, hogy a feladat a sorba kerül.

Most nézzük meg, hogyan működik a feladatsor.

 1package file_upload
 2
 3import (
 4	"log"
 5	"sync"
 6)
 7
 8var taskQueue chan UploadTask
 9var once sync.Once
10
11// A memórián belüli feladatsor inicializálása.
12func InitWorkQueue() {
13	once.Do(func() {
14		taskQueue = make(chan UploadTask, 100)
15		log.Println("Upload Info: Work queue initialized.")
16	})
17}
18
19// Hozzáad egy UploadTask-et a sorhoz.
20func EnqueueTask(task UploadTask) {
21	if taskQueue == nil {
22		log.Fatal("ERROR: Task queue not initialized.")
23	}
24	taskQueue <- task
25	log.Printf("Upload Info: Queue: Task enqueued. Size: %d", len(taskQueue))
26}
27
28// Lekér egy UploadTask-et a sorból, blokkolva, ha üres.
29func DequeueTask() UploadTask {
30	if taskQueue == nil {
31		log.Fatal("ERROR: Task queue not initialized.")
32	}
33	task := <-taskQueue
34	log.Printf("Upload Info: Queue: Task dequeued. Size: %d", len(taskQueue))
35	return task
36}
37
38// Visszaadja az aktuális sor méretét.
39func GetQueueLength() int {
40	if taskQueue == nil {
41		return 0
42	}
43	return len(taskQueue)
44}

A megadott feladatütemező egyszerűen van implementálva. Ez a feladatütemező egy egyszerű struktúrával rendelkezik, amely a feladatokat kiveszi a csatornából.

Az alábbiakban a worker metódus található a fájl feltöltése utáni konténerbe való push-hoz. A jelenlegi metódus egy végtelen ciklust használ a jó válaszkészség és az egyszerű implementáció érdekében, de igény szerint algoritmusokkal is kiegészíthető.

 1func StartFilePushWorker() {
 2	for {
 3		task := DequeueTask()
 4		log.Printf("Upload Info: Worker processing task for %s from %s.", task.ContainerName, task.HostFilename)
 5
 6		// Az ideiglenes fájl késleltetett törlése
 7		defer func(filePath string) {
 8			if err := os.Remove(filePath); err != nil {
 9				log.Printf("ERROR: Worker: Failed to remove temp file '%s': %v", filePath, err)
10			} else {
11				log.Printf("Upload Info: Worker: Cleaned up temp file: %s", filePath)
12			}
13		}(task.HostTempFilePath)
14
15		// Feladat feldolgozása újrapróbálkozásokkal az átmeneti Incus hibák esetén
16		for i := 0; i <= MaxRetries; i++ {
17			err := processUploadTask(task) //külön feltöltési feladat
18			if err == nil {
19				log.Printf("SUCCESS: Worker: Task completed for %s.", task.ContainerName)
20				break
21			}
22
23			isTransient := true
24			if err.Error() == "incus: container not found" { // Példa állandó hibára
25				isTransient = false
26			}
27
28			if isTransient && i < MaxRetries {
29				log.Printf("WARNING: Worker: Task failed for %s (attempt %d/%d): %v. Retrying.",
30					task.ContainerName, i+1, MaxRetries, err)
31				time.Sleep(RetryDelay)
32			} else {
33				log.Printf("ERROR: Worker: Task permanently failed for %s after %d attempts: %v.",
34					task.ContainerName, i+1, err)
35				break
36			}
37		}
38	}
39}

Először ez a függvény folyamatosan ismétlődik, és megpróbál feladatokat lekérni a sorból. Ezt követően, az újrapróbálkozások tartományán belül megkísérli a stream-ideiglenes fájl helyett az ideiglenes fájl-konténer feltöltési fázisát.

Előnyök

Ennek a feldolgozási módszernek az az előnye, hogy amennyiben a stream feltöltés sikeres, csökkenthető a későbbi feldolgozási feladatok késleltetése, és megelőzhető az erőforrások kimerülése a párhuzamos konténeres műveletek miatt. Ahogy a jelenlegi kódból is látszik, a párhuzamosan futtatható konténeres feladatok száma a csatorna méretével korlátozott. Így láthattunk egy gyakorlati példát a Go párhuzamos feldolgozásának felhasználására. Ha további példákat szeretne látni, kérjük, látogasson el az alábbi linkekre.Modul példákkal Projekt példákkal Maga a projekt számos járulékos komponenst tartalmaz, így a worker tanulmányozásához elegendő röviden megnéznie, hogyan hívja meg a worker init függvényt a main.go fájlban. A modul más típusú workereket is tartalmaz, ezért kérjük, vegye figyelembe.