Första kursen: Forskningsmetoder och Analys med R
-
Analys och forskning med R och Posit (Rstudio)
-
Grunderna i R och Rstudio7 Ämnen
-
Importera, exportera, spara och ladda data5 Ämnen
-
Strängar och regular expressions (regex)1 Ämne
-
Bearbetning av data med dplyr12 Ämnen
-
Dplyr: Introduktion
-
Dplyr filter(): Filtrera rader (observationer)
-
Dplyr select(): Selektera kolumner (variabler)
-
Dplyr mutate(): Skapa kolumner (variabler)
-
Dplyr arrange(): sortera rader (observationer)
-
Dplyr rename(): Namnge kolumer
-
Dplyr slice(): Selektera rader på positioner
-
Dplyr summarise(): Summera variabler (kolumner)
-
Dplyr ifelse(), if_else(), case_when(): Villkor
-
Dplyr row_number(): Numrering av rader
-
Dplyr rowwise(): Radvis beräkning
-
Dplyr distinct(): Identifiera unika observationer och rader
-
Dplyr: Introduktion
-
Visualisera och presentera14 Ämnen
-
Att visualisera data
-
Introduktion till ggplot2
-
Grunderna i ggplot2
-
Estetisk mappning
-
Färger, färgkoder och färgpaletter
-
Facets (subgrafer)
-
Geoms (geometriska objekt)
-
Geoms med statistiska beräkningar (transformationer)
-
Koordinatsystemet
-
Scales, axlar, legends (guides)
-
Fokusering och avgränsning
-
Tema (themes)
-
Organisering och layout av figurer med multipla paneler
-
Spara grafer till hårddisk
-
Att visualisera data
-
Explorerande och deskriptiva analyser6 Ämnen
-
Prediktionsmodeller12 Ämnen
-
Learning: Supervised och Unsupervised Learning
-
Parametriska och Icke-Parametriska Modeller
-
Osäkerhet (Uncertainty)
-
Kausal inferens (Kausalitet, Causality)
-
Strategier för att Skapa Prediktionsmodeller
-
Hantering av Kontinuerliga variabler, Icke-Linjära samband och Flexibla Funktioner
-
Variabelselektion (Feature Selection)
-
Missing Data och Multipel Imputation
-
Observationer med Stark Inverkan på Modellen
-
Att Jämföra och Välja Bland Modeller
-
Mått på prediktiv förmåga (Evaluation metrics)
-
Sammanfattande Principer för Prediktionsmodellering
-
Learning: Supervised och Unsupervised Learning
-
Klassisk regressionsanalys8 Ämnen
-
Machine learning (ML) och Artificiell Intelligens (AI)9 Ämnen
-
Introduktion till artificiell intelligens och machine learning
-
Vad är AI och ML?
-
Varför AI och ML nu?
-
Introduktion till Machine Learning (Maskininlärning)
-
Terminologi inom AI och ML
-
Brister i humana prediktioner och beslut
-
Learning (Inlärning)
-
Deep Learning (Djupinlärning, Neuronnät)
-
Ensemble metoder
-
Introduktion till artificiell intelligens och machine learning
-
Skapa prediktionsmodeller med Tidymodels6 Ämnen
-
Hypotestester och epidemiologiska mått5 Ämnen
Parametriska och Icke-Parametriska Modeller
Parametriska vs. icke-parametriska modeller
Vad är en parameter?
Prediktionsmodeller studerar sambandet \(Y=f(x)\), vilket innebär att utfallet (\(Y\)) är en funktion av prediktorer (\(x\)).
Funktionen som skattar \(Y\) baserat på \(x\) är okänd och måste beräknas. Det finns en lång rad algoritmer för att hitta funktionen som bäst beskriver sambandet \(Y=f(x)\). Algoritmerna beräknar funktionen med hjälp av parametrar. Detta exemplifieras nu med en linjär regressionsmodell där vikt prediceras utifrån ålder och kön:
\(Y_{vikt} = \beta_{age} + \beta_{kön} + error\)
I denna modell finns tre parametrar (\(\beta_{age}, \beta_{kön}, error\)) som måste skattas. Antalet parametrar påverkas inte av antalet observationer i data. Fler observationer leder inte till fler eller färre parametrar, vilket innebär att antalet parametrar är fixerat.
Parametrar krävs för att göra prediktioner. Parametrar beräknas utifrån träningsdata (data som modellen lär sig på). Exempel på parametrar från olika typer av modeller framgår i tabellen nedan.
Modell | Parameter |
---|---|
Linjär regression | Koefficienterna (\(\beta\)) |
Logistisk regression | Koefficienterna (\(\beta\)) |
Neural networks (NN) | Vikterna (\(w\)) |
Support Vector Machine (SVM) | Supportvektorer |
Random forest (RF) | Träden |
Gradient Boosting (GBM) | Träden |
Extreme Gradient boosting (XGB) | Träden |
I parametriska modeller är antalet parametrar fixerade och det påverkas inte av antalet observationer. I en icke-parametrisk modell ökar antalet parametrar med antalet observationer som finns i träningsdata. Icke-parametriska modeller är exemelvis neural networks (NN), random forest (RF), gradient boosting (GBM), extreme gradient boosting (XGB).
Icke-parametriska modeller kan därför ta mycket längre tid att beräkna (ett större antal parametrar skall skattas) men kan å andra sidan ha betydligt högre precision än en parametrisk modell.