Jeg er en dataanalytiker som brenner for å hente ut innsikt og bygge maskinlæringsløsninger som skaper faktisk forretningsverdi. Etter flere år innen telecom og kundebehandling fokuserer jeg nå på analyse, automatisering og datadrevet beslutningstaking ved hjelp av Python, SQL og Power BI.
Tech: Python • Pandas • Parquet • Bronze/Silver/Gold Architecture
En fullstendig datapipeline som simulerer sanntids eventstrømmer.
Prosjektet genererer kontinuerlige kundehendelser (logins, purchases, cancellations), konsumerer dem i et streaming-lignende oppsett og bygger et komplett Lakehouse-lag med Bronze, Silver og Gold.
Høydepunkter:
- Streaming-simulering med JSON microbatches
- Automatisk ingestion til Bronze (Parquet)
- Silver: renset og standardisert eventtabell
- Gold: ferdige analysetabeller klare for Power BI
- Moderne data engineering-arkitektur, lett forklart og implementert
Tech: FastAPI • Embeddings • Mock Mode • Retrieval Logic
En API-basert supportløsning som kombinerer hybrid retrieval, embeddings og RAG-inspirert resonnering.
Prosjektet inkluderer full mock-modus som gjør det mulig å teste hele systemet uten API-kostnader, perfekt for portefølje og læring.
Høydepunkter:
- FastAPI-applikasjon med komplett endpoint-struktur
- Embeddings (OpenAI eller pseudosyntetiske, kostnadsfrie)
- RAG-aktig generering basert på relevante dokumenter
- Strukturert responsmodell med metadata og scorer
- Ren arkitektur og testbarhet
Tech: Python • Streamlit • TF-IDF • Cosine Similarity
En FAQ-chatbot bygget med NLP-retrieval som matcher brukerens spørsmål mot en kunnskapsbase ved bruk av TF-IDF (ngrams) og cosine similarity.
Interaktivt UI i Streamlit gjør det enkelt å teste og justere terskler og antall treff.
Høydepunkter:
- TF-IDF + cosine similarity for matching
- Justerbar terskel og top-k
- Streamlit Web UI
- Utvidbart til embeddings / RAG
Tech: Python • Scikit-Learn • Pandas • Seaborn
Segmentering av kunder ved bruk av K-Means clustering for å avdekke ulike kundegrupper basert på demografi og atferd.
Høydepunkter:
- K-Means + StandardScaler
- Elbow Method for optimalt antall segmenter
- Cluster-visualiseringer
- Innsiktsledet analyse
Tech: Scikit-Learn • XGBoost • Pandas
Et komplett churn-prediksjonsprosjekt som sammenligner modeller og evalueringsmetoder for å identifisere kunder med høy risiko for avgang.
Høydepunkter:
- Logistic Regression, Random Forest & XGBoost
- ROC-AUC, Precision, Recall, F1
- Full preprocessing + modellering pipeline
- Analyse av driverne bak churn
Tech: Python • Scikit-Learn • XGBoost
Regresjonsprosjekt for å forutsi boligpriser basert på et rikt featuresett av numeriske og kategoriske variabler.
Høydepunkter:
- Lineær regresjon, Random Forest, XGBoost
- RMSE, MAE, R² evaluering
- Feature engineering
- Forklarbarhet i modellene
Tech: Power BI • DAX • Data Cleaning
Dashboard som analyserer oppdrettsindustrien i Norge med fokus på regioner, volum og utvikling over tid.
Høydepunkter:
- Rensing og modellering av datasett
- DAX-målinger og KPI-er
- Geografiske visualiseringer
- Sterk for storytelling og forretningsinnsikt
Språk og verktøy:
Python · SQL · Power BI · Scikit-learn · Pandas · NumPy · Matplotlib · Seaborn · XGBoost
Git · VS Code · Jupyter Notebook
Data science-ferdigheter:
Exploratory Data Analysis (EDA) · Feature Engineering · Classification · Regression · Clustering · Model Evaluation · Data Visualization
Fullført:
- Learn Python 3
- Analyze Data with SQL
- Analyze Data with Microsoft Excel
- BI Dashboards with Power BI
- Data and Programming Foundations for AI
- Data Scientist: Analytics (Codecademy)
Pågående:
- PL-300: Power BI Data Analyst (Certification Path)
- Data Scientist: Machine Learning Specialist (81%)
- Build Chatbots with Python (50%)
- Creating AI Applications using RAG (57%)
- Tidsserieanalyse og modellutrulling
- AI-agenter og LLM-drevne chatbots (RAG / LangChain)
- MLOps og produksjonsløp
- Avansert Power BI (PL-300-forberedelse)
Jeg bygger en portefølje som kombinerer forretningsforståelse med teknisk kompetanse — med fokus på å vise hvordan data kan omsettes til innsikt og faktiske beslutninger.
💬 Åpen for samarbeid, tilbakemeldinger og faglige diskusjoner innen data.