Komputer „żywi” się energią elektryczną. A za ten prąd musimy zapłacić z własnej kieszeni, lub udowodnić płacącym, że wcale nie muszą wydawać majątku. Warto by wiec mieć jakieś argumenty. W tym tekście dostarczymy ich wystarczająco dużo. Nasuwa się pytanie, ile prądu zużywa komputer?

Czteroosobowa z trzema komputerami płaci za prąd rocznie nieco ponad 1400 zł. Czy to dużo? Według danych statystycznych wcale nie. I to pomimo tego, że struktura zużycia energii znacząco zmieniła się w ostatnich latach, właśnie na niekorzyść komputerów. Nie znaczy to jednak, że komputery zużywają więcej energii – wprost przeciwnie, są bardziej energooszczędne. Sęk w tym, że energooszczędność pozostałych urządzeń także się poprawiła.

Ile kosztuje ładowarka w gniazdku

Koszt codziennego ładowania smartfona to w rozliczeniu rocznym zaledwie 4,5 zł, czyli tyle co nic. Jeszcze ciekawszy jest koszt pozostawionej w gniazdku na stałe ładowarki. Jeżeli korzystamy z przyzwoitego modelu (co najmniej 50 proc. z tych dostępnych na rynku), który w takiej sytuacji zużywa ok. 0,1 W energii, to za cały rok (22 godziny dziennie, bo 2 godziny ładujemy smartfona) zapłacimy zaledwie 50 groszy. W tym wypadku potencjalne oszczędności nie równoważą upierdliwości ciągłego szukania położonej nie wiadomo gdzie ładowarki.

Bardzo podobna sytuacja ma miejsce w wypadku ładowarki do laptopa. Jeżeli zostawimy ją w gniazdku to rocznie zapłacimy 11 zł za zmarnowaną energię. Natomiast koszt codziennego ładowania biurowego laptopa to zaledwie 20 zł rocznie. Oczywiście, jeżeli komputer służy do intensywnej pracy to w praktyce spędzi więcej czasu podłączony do ładowarki w efekcie czego zapłacimy za to ok 40-50 zł rocznie.

Koszt nakarmienia bestii, czyli ile prądu zużywa komputer?

W wypadku stacjonarnych pecetów nie jest już jednak tak różowo. Moc komputera możemy określić na kilka sposobów. Jednym z nich jest moc zasilacza – przeciętny pecet wyposażony jest w zasilacz o mocy 550 W. Im lepszej klasy zasilacz (certyfikat: brak, 80 Plus, Bronze, Silver, Gold, Platinum, Titanium) tym większa jest jego sprawność, co oznacza, ze mniej energii marnuje. Mało który komputer pracuje jednak cały czas wykorzystując pełną moc zasilacza.

Z drugiej strony głównymi odbiorcami energii są procesor i karta graficzna. W obu wypadkach producenci podają tzw. TDP , czyli Thermal Design Power. W praktyce oznacza to ile mocy procesor jest w stanie oddać pod postacią ciepła i jak wydajny powinien być układ chłodzący. Tu warto zwrócić uwagę na jedną ciekawostkę. Pasywnie chłodzony Palit GTX 1650 KalmX pobiera 75 W. Karta z identycznym GPU ale większym układem chłodzenia – Palit GTX 1650 Dual – dokładnie tyle samo. Z kolei w wypadku wydajniejszych kart Palit RTX 2080 SUPER X z jednym wentylatorem pobiera 250 W. Wersja Palit RTX 2080 SUPER GP z trzema wentylatorami – tak samo 250 W. Liczba wentylatorów jest więc pomijalna w ogólnym zużyciu energii karty i warto wybrać model lepiej chłodzony.

W praktyce dobrej klasy komputer dla gracza, czyli z lepsza kartą graficzną, zużywa średnio 150 W, bo sprzęt rzadko jest obciążony do maksimum. Przy założeniu, że używamy go przez 8 godzin każdego dnia, za cały rok musimy zapłacić 271 zł. Nie jest to kwota przesadnie wygórowana i kilka lat temu ginęła daleko za światłem i lodówką. Dzisiaj jest to już koszt porównywalny.

Oczywiście topowy sprzęt do grania, czy renderowania używany po kilkanaście godzin dziennie razem z kilkoma dużymi monitorami zużyje bez problemu dwa razy więcej energii. Profesjonalny sprzęt do kopania kryptowalut potrafi zużyć do 3000 kWh miesięcznie, co przekłada się na ponad 22 tys. zł. Także jak widać koszt energii w wypadku dużych instalacji potrafi być już realnym problemem.

Najwięksi prądożercy

Przez lata głównym winowajcą, odpowiedzialnym za największe zużycie energii elektrycznej w domu było – oświetlenie. Jeżeli w domu mamy 25 klasycznych żarówek o mocy 60 W i każda z nich świeci przez 4 godziny dziennie, to rocznie za prąd zapłacimy nieco ponad 1350 zł. Jeżeli jednak wymienimy wszystkie żarówki na LED, z których każda zużywa nie więcej jak 5 W, to rachunek spadnie do 113 zł.

Kolejnym tradycyjnym pożeraczem jest lodówka. I tutaj znów przez lata klasa energetyczna tych urządzeń poprawiła się i zużycie energii spadło. Obecnie lodówka klasy A+ (a ciężko dostać gorszą) zużywa według danych producenta ok 250 kWh rocznie. Przyjmując nieco mniej optymistyczne wyliczenia (częste zaglądanie do środka) i średni pobór mocy na poziomie 50 W na godzinę (co daje 438 kWh rocznie) za prąd do lodówki zapłacimy 271 zł.

Ile prądu zużywa komputer

Ile prądu zużywa komputer, laptop, oświetlenie, czy lodówka? Metoda obliczeń

Na potrzeby tego tekstu przyjęliśmy, że koszt energii elektrycznej jest stały i wynosi 0,62 zł za 1 kWh. Pozostałe wyliczenia są danymi uśrednionymi i każdy może samodzielnie dopasować je do swoich warunków. Obliczenie kosztów energii elektrycznej jest proste. Za pomocą miernika wystarczy sprawdzić ile watów energii pobiera dane urządzenie. W wypadku tych co do których mamy pewność pomiar jest niepotrzebny. Żarówka 60 W pobiera faktycznie 60 W, ale np. komputer z zasilaczem 500 W wcale nie pobiera tyle energii, podobnie pralka  o mocy 1000 W nie zużywa tyle energii przez cały czas swojej pracy. Dlatego w wypadku urządzeń o zmiennej wartości poboru mocy konieczne są uśrednienia lub stosowanie miernika który uśrednia pobór z dłuższego pomiaru.

Jak widać koszty energii zużywanej przez komputer w ujęciu rocznym wcale nie są drastycznie wyższe niż innych odbiorników. Co więcej powyższe wyliczenia maja drugie dno – pokazują kiedy nie opłaca się oszczędzać, bo wysiłek nie jest tego nie wart. Wyciąganie ładowarki z gniazdka, aby zaoszczędzić 50 groszy rocznie? Pracowanie stygnącym żelazkiem, aby zaoszczędzić 20 zł rocznie? To się nie opłaca. Podobnie jak dokładanie kilkuset złotych do bardziej energooszczędnego sprzętu, co pozwoli zaoszczędzić kilkadziesiąt złotych rocznie.

Autorem artykułu jest Marek Konderski.

MOŻE CIĘ ZAINTERESOWAĆ
galaxy note 7
Zdecydowanie doradzamy nie wnosić na pokład Samsungów Galaxy Note 7