Vše o statistickém řízení procesů

Statistické metody jako testování hypotéz, regrese, SPC a DOE hrají zásadní roli ve zlepšování kvality. Analýzou dat, identifikací variací a optimalizací procesů pomáhají tyto nástroje zajistit konzistentní výkon a informované rozhodování ve složitých systémech.

Obsah

Zdílet
Technology concept with futuristic element
Přehled článku
Dokončené projekty
0 +
Vracející se zákazníci
0 %

Statistické metody ve zlepšování kvality

Použití statistických metod při zlepšování kvality má mnoho podob, včetně:

Testování hypotéz

Hodnoceny jsou dvě hypotézy: nulová hypotéza (H0) a alternativní hypotéza (H 1). Nulová hypotéza je „slaměný muž“ použitý ve statistickém testu. Závěrem je buď zamítnout, nebo nezamítnout nulovou hypotézu.

Regresní analýza

Určuje matematický výraz popisující funkční vztah mezi jednou odpovědí a jednou nebo více nezávislými proměnnými.

Statistické řízení procesu (SPC)

Monitoruje, řídí a zlepšuje procesy pomocí statistických technik. SPC identifikuje, kdy jsou procesy mimo kontrolu v důsledku zvláštní příčinné odchylky (změna způsobená zvláštními okolnostmi, která není procesu vlastní). Praktici pak mohou hledat způsoby, jak tuto variaci z procesu odstranit.

Návrh a analýza experimentů

Plánování, provádění, analýza a interpretace řízených testů k vyhodnocení faktorů, které mohou ovlivnit proměnnou odezvy.

Praxe zaměstnávání malého reprezentativního vzorku k vyvození závěrů o širší populaci vznikla na počátku 20. století. William S. Gosset, běžněji známý pod svým pseudonymem „Student“, musel odebírat malé vzorky z procesu vaření piva, aby porozuměl konkrétním charakteristikám kvality. Statistický přístup, který odvodil (nyní nazývaný jednovýběrový t-test), byl následně postaven R. A. Fisherem a dalšími.

Jerzy Neyman a E. S. Pearson vyvinuli ve 20. letech 20. století úplnější matematický rámec pro testování hypotéz. To zahrnovalo koncepty, které jsou dnes statistikům známé, jako například:

  • Chyba I. typu – nesprávné zamítnutí nulové hypotézy.
  • Chyba II. typu – nesprávné zamítnutí nulové hypotézy.
  • Statistická síla – pravděpodobnost správného zamítnutí nulové hypotézy.

Procedura Fisher’s Analysis of Variance (nebo ANOVA) poskytuje statistický motor, jehož prostřednictvím se provádí mnoho statistických analýz, jako jsou studie opakovatelnosti a reprodukovatelnosti měření a další navržené experimenty. ANOVA se ukázala být velmi užitečným nástrojem pro řešení toho, jak lze variace připsat určitým uvažovaným faktorům.

W. Edwards Deming a další kritizovali nevybíravé použití statistických inferenčních postupů a poznamenali, že pokud se neodebírá vzorek ze stabilního systému, mohou být vyvozeny chybné závěry. Při pohledu na data by mělo být klíčovou záležitostí zvážení typu prováděné statistické studie.

Stáhněte si naši e-knihu

Stáhněte si naši bezplatnou e-knihu a zjistěte, jak může společnost GQ Interim změnit vaše podnikání pomocí odborných řešení pro vedení!

Statistické řízení procesu

Postupy statistického řízení procesů (SPC) vám mohou pomoci monitorovat chování procesu.

Pravděpodobně nejúspěšnějším nástrojem SPC je regulační diagram, který původně vyvinul Walter Shewhart na počátku 20. let. Kontrolní diagram vám pomůže zaznamenat data a umožní vám vidět, kdy dojde k neobvyklé události, např. velmi vysoké nebo nízké pozorování ve srovnání s „typickým“ výkonem procesu.

Regulační diagramy se pokoušejí rozlišovat mezi dvěma typy procesních variací:

  • Variace bežné příčiny, která je procesu vlastní a bude vždy přítomna.
  • Zvláštní příčina variace, která pochází z externích zdrojů a naznačuje, že proces je mimo statistickou kontrolu.

Různé testy mohou pomoci určit, kdy došlo k události mimo kontrolu. S rostoucím počtem testů se však zvyšuje i pravděpodobnost falešného poplachu.

Pozadí

K výraznému nárůstu používání kontrolních tabulek došlo během druhé světové války ve Spojených státech k zajištění kvality munice a dalších strategicky důležitých produktů. Používání SPC se po válce poněkud snížilo, i když se následně s velkým účinkem začalo používat v Japonsku a pokračuje až do současnosti.

Mnoho technik SPC bylo v posledních letech „znovu objeveno“ americkými firmami, zejména jako součást iniciativ na zlepšení kvality, jako je Six Sigma. Široce rozšířenému používání kontrolních diagramů výrazně napomáhaly statistické softwarové balíčky a stále sofistikovanější systémy sběru dat.

Postupem času byly vyvinuty další nástroje pro monitorování procesů, včetně:

  • Grafy kumulativního součtu (CUSUM): Pořadnice každého vyneseného bodu představuje algebraický součet předchozí pořadnice a nejnovějších odchylek od cíle.
  • Grafy s exponenciálně váženým klouzavým průměrem (EWMA): Každý bod v grafu představuje vážený průměr aktuálních hodnot a hodnot všech předchozích podskupin, což dává větší váhu nedávné historii procesu a snižuje váhu pro starší data.

V poslední době jiní obhajují integraci SPC s nástroji Engineering Process Control (EPC), které pravidelně mění procesní vstupy za účelem zlepšení výkonu.

Statistická kontrola kvality versus statistická kontrola procesu (SQC vs. SPC)

V roce 1974 Dr. Kaoru Ishikawa shromáždil sbírku nástrojů pro zlepšování procesů ve svém textu Guide to Quality Control. Jsou známé po celém světě jako sedm nástrojů kontroly kvality (7–QC), jsou to:

  • Analýza příčin a následků
  • Zkontrolujte listy/zápisy
  • Kontrolní diagramy
  • Grafy
  • Histogramy
  • Paretova analýza
  • Analýza rozptylu

Kromě základních nástrojů 7–QC existují také některé další nástroje známé jako sedm doplňkových (7– SUPP) nástrojů:

  • Stratifikace dat
  • Mapy defektů
  • Protokoly událostí
  • Procesní vývojové diagramy/mapy
  • Pokroková centra
  • Randomizace
  • Určení velikosti vzorku

Statistická kontrola kvality (SQC) je aplikace 14 statistických a analytických nástrojů (7–QC a 7 SUPP) ke sledování výstupů procesu (závislé proměnné). Statistické řízení procesu (SPC) je aplikací stejných 14 nástrojů pro řízení vstupů procesu (nezávislých proměnných).

Následující obrázek znázorňuje tyto vztahy.

Co je design experimentů (DOE)?

Toto odvětví aplikované statistiky se zabývá plánováním, prováděním, analýzou a interpretací řízených testů k vyhodnocení faktorů, které řídí hodnotu parametru nebo skupiny parametrů.

Strategicky naplánovaný a provedený experiment může poskytnout velké množství informací o účinku na proměnnou odezvy v důsledku jednoho nebo více faktorů. Mnoho experimentů zahrnuje udržování určitých faktorů konstantních a změnu úrovní jiné proměnné. Tento jednofaktorový přístup (nebo OFAT) ke znalostem procesů je však neefektivní ve srovnání se současnými změnami úrovní faktorů.

Mnoho současných statistických přístupů k navrženým experimentům pocházejí z díla R. A. Fishera z počátku 20. století. Fisher předvedl, jak čas, kdy se vážně zamyslíte nad návrhem a provedením experimentu před jeho vyzkoušením, pomohl vyhnout se často se vyskytujícím problémům při analýze. Mezi klíčové pojmy při vytváření navrženého experimentu patří blokování, randomizace a replikace.

Dobře provedený experiment může poskytnout odpovědi na otázky jako:

  • Jaké jsou klíčové faktory v procesu?
  • Při jakých nastaveních by proces poskytoval přijatelný výkon?
  • Jaké jsou klíčové, hlavní a interakční efekty v procesu?
  • Jaká nastavení by přinesla menší odchylky ve výstupu?

Je podporován opakovaný přístup k získávání znalostí, který obvykle zahrnuje tyto po sobě jdoucí kroky:

  • Návrh screeningu, který zužuje pole posuzovaných proměnných.
  • „Plně faktoriální“ design, který studuje odezvu každé kombinace faktorů a úrovní faktorů, a pokus o zónu v oblasti hodnot, kde se proces blíží optimalizaci.
  • Návrh povrchu odezvy pro modelování odezvy.

Blokování

Když je randomizace faktoru nemožná nebo příliš nákladná, blokování vám umožní omezit randomizaci provedením všech zkoušek s jedním nastavením faktoru a poté všech zkoušek s druhým nastavením.

Randomizace

Odkazuje na pořadí, ve kterém se provádějí pokusy experimentu. Randomizovaná sekvence pomáhá eliminovat účinky neznámých nebo nekontrolovaných proměnných.

Replikace

Opakování kompletního experimentálního ošetření včetně nastavení.

Analýza rozptylu (ANOVA)

ANOVA je základní statistická technika pro stanovení podílu vlivu faktoru nebo souboru faktorů na celkovou variaci. Rozděluje celkovou variaci souboru dat do smysluplných částí spojených se specifickými zdroji variací, aby se ověřila hypotéza o parametrech modelu nebo aby se odhadly komponenty rozptylu. Existují tři modely: pevný, náhodný a smíšený.

Závěr

Závěrem lze říci, že statistické metody tvoří základ efektivního zlepšování kvality. Nástroje jako testování hypotéz, regresní analýza, SPC a návrh experimentů umožňují organizacím odhalovat poznatky, monitorovat výkon a kontrolovat odchylky. Rozlišováním mezi běžnými a speciálními příčinami, optimalizací vstupů do procesu a systematickým testováním změn tyto techniky umožňují těm, kdo rozhodují, zlepšovat výsledky, snižovat plýtvání a zvyšovat celkovou efektivitu. Přijetí těchto metod podporuje kulturu neustálého zlepšování založenou na datech a vědeckém myšlení.

Máte zájem o službu Interim Expert?

Zjistěte, jak může interim management výrazně zvýšit efektivitu vašeho podnikání. Kontaktujte náš tým a zjistěte, jak spolupráce s GQ Interim zlepší chod vaší společnosti.

Související články

Autor

Máte zájem o
naše služby?

Spojte se s naším týmem a prodiskutujte svůj projekt nebo se připojte k naší síti odborníků.