บทที่ 2

พื้นฐานทางเทคนิคและลักษณะโหลดของ Data Center

บทนี้อธิบายพื้นฐานทางเทคนิคที่จำเป็นสำหรับการทำความเข้าใจผลกระทบของ Data Center ต่อโครงข่ายไฟฟ้า ครอบคลุมการจำแนกประเภท สถาปัตยกรรมระบบจ่ายไฟ ลักษณะโหลดของ AI Workloads อุปกรณ์อิเล็กทรอนิกส์กำลัง คุณภาพกำลังไฟฟ้า และดัชนีประสิทธิภาพพลังงาน

2.1 ประเภทและสถาปัตยกรรมของ Data Center

ศูนย์ข้อมูล (Data Center) มิใช่โครงสร้างพื้นฐานที่มีรูปแบบเดียว หากแต่มีความหลากหลายในด้านขนาด สถาปัตยกรรม และพฤติกรรมการใช้ไฟฟ้าอย่างมีนัยสำคัญ ความเข้าใจในความแตกต่างดังกล่าวเป็นพื้นฐานที่ขาดไม่ได้สำหรับการวิเคราะห์ผลกระทบต่อโครงข่ายไฟฟ้า เนื่องจากลักษณะโหลดที่แตกต่างกันระหว่าง Enterprise Data Center แบบดั้งเดิมกับ Hyperscale AI Data Center รุ่นใหม่นั้นมีนัยสำคัญอย่างยิ่งต่อการวางแผนและการออกแบบระบบป้องกันโครงข่ายไฟฟ้า[2]

2.1.1 Enterprise Data Center

Enterprise Data Center เป็นรูปแบบดั้งเดิมที่องค์กรต่างๆ ใช้ประมวลผลข้อมูลภายในองค์กร Data Center แบบดั้งเดิมให้ความสำคัญกับความพร้อมใช้งานสูง (High Availability) และ Uptime ซึ่งก่อให้เกิด Demand Profile ที่ค่อนข้างคงที่[2] ความหนาแน่นของการใช้พลังงานอยู่ในช่วง 7–10 kW ต่อ Rack สำหรับเซิร์ฟเวอร์มาตรฐาน[1] ค่า PUE โดยทั่วไปอยู่ระหว่าง 1.5–2.0

Colocation หรือ Cloud Data Center เป็นรูปแบบกลางที่รองรับผู้เช่าหลายรายในสถานที่เดียวกัน ลักษณะโหลดมีความผันผวนมากขึ้นเนื่องจากการตัดสินใจทางธุรกิจของผู้เช่าแต่ละรายมีอิสระจากกัน อย่างไรก็ตาม การรวมโหลดของผู้เช่าหลายรายส่งผลให้ Aggregate Load Profile มีความนิ่งมากกว่า Single-tenant facility

2.1.2 Hyperscale AI Data Center และ Cryptocurrency Mining

Hyperscale AI Data Center เป็นรูปแบบใหม่ที่ถือกำเนิดจากความต้องการด้านการประมวลผล AI ขนาดใหญ่ Rack ที่รองรับ AI สามารถต้องการกำลังไฟฟ้าได้ตั้งแต่ 30 kW จนถึงกว่า 100 kW[1] โดยฮาร์ดแวร์รุ่นล่าสุดอย่าง NVIDIA GB200 NVL72 สามารถบริโภคพลังงานได้ถึง 120 kW ต่อ Rack

ในระดับ Facility 施設ขนาด Hyperscale AI สมัยใหม่โดยทั่วไปมีความต้องการไฟฟ้าตั้งแต่ 100 MW ถึง 500 MW โดย "Super Clusters" รุ่นใหม่มีการวางแผนไว้ที่ระดับ 1–5 GW เช่น Meta "Hyperion" Cluster ที่ 5 GW[1]

Cryptocurrency Mining Facility มีลักษณะโหลดเป็น Flat High-Power ที่ค่อนข้างคงที่ แต่มีความอ่อนไหวสูงต่อราคาไฟฟ้าในตลาดขายส่ง สามารถ Curtail ได้อย่างรวดเร็วเมื่อราคาไฟฟ้าสูงเกินเกณฑ์ สร้างความไม่แน่นอนให้กับ Load Forecasting ของ System Operator

ตารางที่ 2.1 การเปรียบเทียบประเภท Data Center และลักษณะโหลดหลัก[1,2]

ประเภท Rack Density ขนาด Facility ลักษณะโหลด PUE ทั่วไป[1]
Enterprise 7–10 kW/rack <1 MW คงที่, Business-hour pattern 1.5–2.0
Colocation / Cloud 10–30 kW/rack 1–100 MW ผันแปรปานกลาง 1.3–1.6
Hyperscale AI 30–120 kW/rack 100 MW–5 GW ผันผวนสูง, burst patterns 1.1–1.3
Crypto Mining 5–15 kW/rack 10–500 MW Flat high-power, price-sensitive curtail 1.1–1.4
📐 รูปที่ 2.1 — แผนผังสถาปัตยกรรมระบบจ่ายไฟ Data Center (Utility → MV Switch → UPS → PDU → Server PSU)
รูปที่ 2.1 สถาปัตยกรรมระบบจ่ายไฟภายใน Hyperscale Data Center ตั้งแต่จุดเชื่อมต่อกับโครงข่าย (Grid Interface) จนถึง Server IT Load — อ้างอิงจาก: [7] DC Dynamic Load Modeling (NERC, 2025)

2.1.3 สถาปัตยกรรมระบบจ่ายไฟของ Data Center

สถาปัตยกรรมระบบจ่ายไฟภายใน Data Center เป็นสิ่งที่กำหนดลักษณะโหลดที่ปรากฏต่อโครงข่ายไฟฟ้าโดยตรง โดยทั่วไปประกอบด้วย 4 ชั้น ได้แก่ (1) Utility Supply Path — เชื่อมต่อกับโครงข่ายผ่าน HV/MV Transformer และ MV Switchgear; (2) ระบบ UPS — เป็นตัวกั้นระหว่าง Utility Power และ IT Load; (3) Power Distribution Unit (PDU) — กระจายไฟฟ้าภายใน Rack; และ (4) Server Power Supply Unit (PSU) — แปลง AC เป็น DC สำหรับชิ้นส่วนอิเล็กทรอนิกส์

ระบบ Cooling ซึ่งประกอบด้วย CRAC, CRAH และ Chiller Plant เชื่อมต่อกับ Utility Supply โดยตรงหรือผ่าน Normal Power Distribution และใช้ VFD กับมอเตอร์ Fan และ Pump อย่างแพร่หลาย โดยโหลดของ Cooling อาจคิดเป็น 20–40% ของโหลดรวม

2.2 ลักษณะการใช้ไฟฟ้าของ AI Workloads

ความเข้าใจในลักษณะเชิงพฤติกรรมของ AI Workloads ถือเป็นกุญแจสำคัญสำหรับการวิเคราะห์ผลกระทบต่อโครงข่ายไฟฟ้า เนื่องจาก AI Workloads มีพฤติกรรมการใช้พลังงานที่แตกต่างจาก Computing Load แบบดั้งเดิมอย่างมีนัยสำคัญ

2.2.1 AI Training Workload

AI Training คือกระบวนการเรียนรู้ของโมดูล Machine Learning จากชุดข้อมูลขนาดใหญ่ ซึ่งมีลักษณะพิเศษที่สำคัญคือกระบวนการแบ่งงานระหว่าง GPU จำนวนมากที่ทำงานพร้อมกัน (Synchronized Parallel Processing) เนื่องจากลักษณะ Synchronized ของ Job เหล่านี้ ในทุกๆ Iteration จะมีช่วง Computation-heavy ที่ GPU แต่ละตัวทำงานกับข้อมูล Local และช่วง Communication-heavy ที่ GPU ทุกตัว Synchronize ข้อมูลกัน เนื่องจากช่วง Compute-heavy ต้องการพลังงานมากกว่าช่วง Communication อย่างมาก จึงเกิดการแกว่งตัวของกำลังไฟฟ้าขนาดใหญ่[6]

📈 รูปที่ 2.2 — กราฟ Power Waveform ของ AI Training Job: ช่วง Compute-phase (กำลังสูง) สลับกับ Communication-phase (กำลังต่ำ) แสดง Ramp Rate และ Duration
รูปที่ 2.2 ลักษณะการแกว่งตัวของกำลังไฟฟ้าในช่วง AI Training แสดง Compute–Communication cycling ที่ก่อให้เกิด Power Swing — อ้างอิงจาก: [6] Power Stabilization for AI Training Datacenters (2025) และ [2] NERC White Paper (2025)

การแกว่งตัวดังกล่าวมีอัตราความเร็วที่สูงผิดปกติ งานวิจัยของ NERC ได้วัดค่าจริงพบว่า ในช่วงที่มีอัตราการเปลี่ยนแปลงสูงสุด ความต้องการไฟฟ้าเปลี่ยนแปลงในอัตรา 1.9 หน่วยต่อวินาที (p.u./s) เป็นเวลาประมาณ 250 มิลลิวินาที[2] ตัวเลขดังกล่าวสูงกว่าขีดความสามารถของ Conventional Generation ในการตอบสนองเป็นอย่างมาก

เมื่อขยายประเด็นไปสู่ขนาด Facility ในอนาคต การวัดเชิงทดลองที่รายงานโดย NERC แสดงให้เห็นว่า AI Training Cluster สามารถเปลี่ยนแปลงจากกำลังสูงสุดไปยังกำลังต่ำสุดได้ในเวลาประมาณ 500 มิลลิวินาที โดยโมดูล AI รุ่นต่อไปอาจต้องการกำลังไฟฟ้าสูงถึง 500 MW ซึ่งหมายความว่า หาก Transition ดังกล่าวเกิดขึ้นภายใน 500 มิลลิวินาที อัตราการเปลี่ยนแปลงที่เกิดขึ้นคือ 1,000 MW/วินาที[3]

1.9 p.u./s
Measured AI training ramp rate[2]
1,000 MW/s
Effective ramp of 500 MW AI cluster[3]
~1.4 MW/s
Max ramp rate of a gas turbine (reference)

เพื่อให้เห็นภาพที่ชัดเจนยิ่งขึ้น เครื่องกำเนิดไฟฟ้า Gas Turbine ซึ่งถือเป็นหน่วยผลิตที่มีความยืดหยุ่นสูงที่สุดในระบบ มีอัตราการเปลี่ยนแปลงกำลังผลิตสูงสุดเพียงประมาณ 1.4 MW/s เท่านั้น การที่โหลดสามารถเปลี่ยนแปลงในอัตรามากกว่า 700 เท่าของอัตราการตอบสนองของ Generation นั้นถือเป็นความท้าทายเชิงระบบที่ไม่เคยเกิดขึ้นมาก่อนในประวัติศาสตร์ของการดำเนินงานระบบไฟฟ้า

2.2.2 AI Inference Workload

AI Inference คือกระบวนการประยุกต์ใช้โมดูลที่ผ่านการ Train แล้ว มีลักษณะโหลดที่แตกต่างจาก Training อย่างมีนัยสำคัญ คือมีลักษณะ Stochastic และ Bursty โดยความต้องการไฟฟ้าขึ้นอยู่กับจำนวน Query ที่เข้ามาในแต่ละช่วงเวลา จากมุมมองของโครงข่ายไฟฟ้า Inference Load มีลักษณะเป็น Short-Duration Voltage Fluctuation ที่เกิดขึ้นซ้ำๆ

2.3 อุปกรณ์อิเล็กทรอนิกส์กำลังใน Data Center

ลักษณะเฉพาะที่ทำให้ Data Center โดดเด่นจาก Industrial Load แบบดั้งเดิมคือสัดส่วนสูงของอุปกรณ์อิเล็กทรอนิกส์กำลัง โหลดประมาณ 90% เป็น Electronic Drive (Switch Mode Power Supplies และ Electronic Drives)[7] ตัวเลขดังกล่าวมีนัยสำคัญต่อพฤติกรรมเชิงพลวัตของโหลดเมื่อเกิด Grid Disturbance เนื่องจากอุปกรณ์ Power Electronic ไม่มี Physical Inertia และมีการ Respond ต่อแรงดันไฟฟ้าหรือความถี่ที่ผิดปกติตาม Control Algorithm ซึ่งออกแบบโดย OEM

2.3.1 Uninterruptible Power Supply (UPS)

UPS เป็นอุปกรณ์หลักที่ทำหน้าที่คั่นกลางระหว่าง Utility Power และ IT Equipment Double-Conversion UPS เป็นประเภทที่ใช้งานกันแพร่หลายที่สุดใน Mission-Critical Data Center โดย AC Input ถูกแปลงเป็น DC ผ่าน Rectifier ก่อน จากนั้น Inverter แปลงกลับเป็น AC เพื่อจ่ายให้โหลด มี Transfer Time เป็นศูนย์ แต่ Rectifier Stage ก่อให้เกิด Harmonic Current มาตรฐาน IEC 62040-3 กำหนดว่าสำหรับ UPS Class 1 ในโหมด Battery THD ที่ยอมรับได้สูงสุดคือ 1.5% สำหรับ Linear Load และ 5% สำหรับ Non-linear Load[4]

ประเด็นสำคัญที่มักถูกมองข้ามคือการตั้งค่า Voltage Threshold ของ UPS ซึ่งกำหนด Trip Condition เมื่อแรงดันของ Utility ออกนอก Window ที่ยอมรับได้ หากค่าเหล่านี้ไม่ได้รับการ Coordinate กับ Protection Relay ของโครงข่ายไฟฟ้า จะเกิดความเสี่ยงที่ UPS จะ Trip โหลดออกจากโครงข่าย ณ เวลาที่ Utility กำลังเพิ่งเริ่มฟื้นตัวจาก Fault ซึ่งจะเพิ่มความรุนแรงของเหตุการณ์

2.3.2 Switch-Mode Power Supply (SMPS) และ Variable Frequency Drive (VFD)

Server Power Supply Unit (PSU) ทุกชิ้นที่ใช้ใน Data Center สมัยใหม่ใช้เทคโนโลยี Switch-Mode ซึ่งมีลักษณะสำคัญคือ Input Rectifier ที่ดึงกระแสไฟฟ้าใน Pulse รูป Peaky ประกอบด้วย Harmonic ลำดับ 3, 5, 7 เป็นหลัก แม้ SMPS สมัยใหม่จะมี Active PFC ที่ลด Harmonic ได้ดีขึ้น แต่เมื่อรวมโหลด SMPS จำนวนมากเข้าด้วยกัน Aggregate Harmonic ที่เกิดขึ้นยังคงมีนัยสำคัญ

Variable Frequency Drive (VFD) สำหรับมอเตอร์ Cooling Fan, Chiller Pump และ CRAH Unit เป็นอีกแหล่งสำคัญของ Harmonic Distortion โดย VFD ทั่วไปใช้ 6-Pulse Front-End Rectifier ซึ่งก่อให้เกิด Harmonic ลำดับ 5, 7, 11, 13

2.4 คุณภาพกำลังไฟฟ้าและฮาร์มอนิกส์

ผลรวมของ Harmonic Current ที่ถูกฉีดเข้าโครงข่ายจาก Device ทุกประเภทใน Data Center ก่อให้เกิด Voltage Harmonic Distortion ที่ Point of Common Coupling (PCC) ในกรณีที่ไม่มีการกรอง Harmonic Voltage Distortion ณ PCC ของ Data Center อาจสูงถึง 8–10% THD[4] ค่าดังกล่าวเกินขีดจำกัดที่มาตรฐาน IEEE 519-2022 กำหนดไว้สำหรับระบบแรงดันปานกลาง ซึ่งโดยทั่วไปอยู่ที่ไม่เกิน 5% THD

2.4.1 Parallel Resonance ระหว่าง Capacitive Load และ Grid Inductance

ลักษณะ Capacitive ของ IT Power Supply เมื่อประกอบกับ Inductance ของสายส่งและหม้อแปลง ก่อให้เกิด LC Parallel Circuit ที่มี Natural Resonance Frequency อาจเกิด Harmonic Voltage Amplification รุนแรง ในกรณีที่ Harmonic Order ของ Current ที่ถูกฉีดเข้าระบบตรงกับ Resonance Frequency ดังกล่าว ปรากฏการณ์นี้อาจนำไปสู่ Transformer Overheating, Cable Rating Exceedance และการเสื่อมสภาพเร่งของ Capacitor Bank ในระบบ Power Factor Correction

2.4.2 มาตรฐานคุณภาพกำลังไฟฟ้าที่เกี่ยวข้อง

มาตรฐาน IEEE 519-2022 กำหนดขีดจำกัดของ Voltage Harmonic Distortion ที่ PCC สำหรับระบบแรงดัน 1–69 kV โดยกำหนด THDV ไม่เกิน 5% และ Individual Harmonic Voltage ไม่เกิน 3% สำหรับ Harmonic ลำดับที่ต่ำกว่า 11 มาตรฐาน IEC 61000-3-6 ให้แนวทางการประเมิน Harmonic Emission จาก Individual Equipment ก่อนการ Connect เข้าสู่ระบบ Distribution

2.5 ดัชนีประสิทธิภาพพลังงานของ Data Center

2.5.1 Power Usage Effectiveness (PUE)

Power Usage Effectiveness (PUE) คือ Metric ที่ใช้กันแพร่หลายที่สุดในการวัดประสิทธิภาพพลังงานของ Data Center ซึ่งนิยามเป็นอัตราส่วน PUE = Total Facility Electricity Consumption / IT Equipment Electricity Consumption โดยมีค่าต่ำสุดที่เป็นไปได้คือ 1[1]

PUE = Total Facility Power (W) ÷ IT Equipment Power (W)
สูตร 2.1 — นิยาม PUE (แหล่งที่มา: [1] — Y. Lin et al., 2025)

Data Center แบบ Enterprise ทั่วไปมี PUE ประมาณ 1.5–1.6 ขณะที่ Facility ขนาดใหญ่ที่ผ่านการปรับปรุงสมัยใหม่สามารถบรรลุ PUE ต่ำกว่า 1.3 ได้[1] สำหรับ Data Center ขนาด 100 MW IT Load ที่มี PUE = 1.5 จะต้องการ Facility Power 150 MW จาก Grid ขณะที่ Hyperscale Facility ขนาดเดียวกันที่มี PUE = 1.2 ต้องการเพียง 120 MW ความแตกต่าง 30 MW ดังกล่าวมีนัยสำคัญต่อการวางแผน Grid Capacity

📊 รูปที่ 2.3 — แผนภูมิเปรียบเทียบ PUE ของ Data Center แต่ละประเภท (Enterprise, Cloud, Hyperscale) แบ่งตาม Region (US, EU, Asia)
รูปที่ 2.3 การเปรียบเทียบค่า PUE ของ Data Center แบบต่างๆ แสดงแนวโน้มการลดลงของ PUE ในกลุ่ม Hyperscale AI — อ้างอิงจาก: [1] Y. Lin et al. — Electricity Demand and Grid Impacts (2025)

2.5.2 Water Usage Effectiveness (WUE) และ Carbon Usage Effectiveness (CUE)

WUE = Annual Water Usage (L) / IT Equipment Energy (kWh) เป็น Metric ที่สะท้อนปริมาณน้ำที่ใช้ในระบบ Cooling ต่อหน่วยพลังงาน IT Load CUE = Total CO₂ Emissions / IT Equipment Energy เป็นตัวชี้วัดที่มีความสำคัญมากขึ้นในยุคที่ Data Center Operators ต้องรายงานและบรรลุเป้าหมาย Carbon Neutrality ซึ่งผลักดันการใช้ Renewable Energy Purchase Agreement (RE-PPA)

2.6 แบบจำลองโหลดสำหรับการวางแผนระบบไฟฟ้า

การวิเคราะห์ผลกระทบของ Data Center ต่อโครงข่ายไฟฟ้าต้องอาศัยแบบจำลองโหลดที่สามารถจำลองพฤติกรรมเชิงพลวัตได้อย่างถูกต้อง ซึ่งเป็นจุดที่แบบจำลองแบบดั้งเดิมบกพร่อง

2.6.1 Static Load Models (ZIP) แบบดั้งเดิม

Polynomial (ZIP) Load Model จำลองโหลดเป็นผลรวมของสามองค์ประกอบ: Z (Constant Impedance), I (Constant Current) และ P (Constant Power) แบบจำลองนี้เหมาะสมสำหรับโหลดแบบ Static แต่ไม่สามารถจำลองพฤติกรรม Dynamic ของ Power Electronic Load เช่น Voltage-Sensitive Tripping หรือ Ramp-Rate ได้

2.6.2 WECC Composite Load Model (CMLD) และข้อจำกัด

WECC Composite Load Model (CMLD) ถูกพัฒนาขึ้นเพื่อรวม Dynamic Load Behavior ของ Induction Motor และ Electronic Load เป็นแบบจำลองเดี่ยว อย่างไรก็ตาม แบบจำลองนี้ถูกออกแบบมาเพื่อจำลอง Induction Motor เป็นหลัก ซึ่งมีพฤติกรรมที่แตกต่างอย่างมากจาก Power Electronic Load ใน Data Center ในหลายด้าน:

(1) CMLD ไม่มี Logic สำหรับ Voltage-Sensitive Tripping แบบ Threshold; (2) ไม่สามารถจำลอง DC Bus Behavior ภายใน SMPS ได้; (3) ไม่มี Ramp-Rate Limit Logic ที่สอดคล้องกับพฤติกรรมจริงของ AI Workload ในฐานะมาตรการเฉพาะกาล ผู้วางแผนระบบบางรายได้นำ EV Charger Model มาประยุกต์ใช้แทน เนื่องจากมี Voltage-Sensitive Trip Logic ที่ใกล้เคียงกับพฤติกรรมของ Data Center มากกว่า CMLD

บทที่ 4 ของรายงานนี้จะอธิบายแนวทางการพัฒนาแบบจำลองพลวัตที่ถูกต้องยิ่งขึ้น ทั้งในรูปแบบ Positive-Sequence (RMS) Model และ Electromagnetic Transient (EMT) Model ซึ่งเป็นมาตรฐานที่กรอบงานนานาชาติกำลังผลักดันให้เป็นข้อบังคับ