Uniwersytet Jagielloński w Krakowie - Centralny System Uwierzytelniania
Strona główna

Nauczanie maszynowe

Informacje ogólne

Kod przedmiotu: WMI.II-NM-S
Kod Erasmus / ISCED: (brak danych) / (0619) Komputeryzacja (inne) Kod ISCED - Międzynarodowa Standardowa Klasyfikacja Kształcenia (International Standard Classification of Education) została opracowana przez UNESCO.
Nazwa przedmiotu: Nauczanie maszynowe
Jednostka: Instytut Informatyki i Matematyki Komputerowej
Grupy: Przedmioty dla programu WMI-0037-2SO
Przedmioty dla programu WMI-0118-1SO
Przedmioty dla programu WMI-0118-2SO
Punkty ECTS i inne: 6.00 LUB 3.00 (w zależności od programu) Podstawowe informacje o zasadach przyporządkowania punktów ECTS:
  • roczny wymiar godzinowy nakładu pracy studenta konieczny do osiągnięcia zakładanych efektów uczenia się dla danego etapu studiów wynosi 1500-1800 h, co odpowiada 60 ECTS;
  • tygodniowy wymiar godzinowy nakładu pracy studenta wynosi 45 h;
  • 1 punkt ECTS odpowiada 25-30 godzinom pracy studenta potrzebnej do osiągnięcia zakładanych efektów uczenia się;
  • tygodniowy nakład pracy studenta konieczny do osiągnięcia zakładanych efektów uczenia się pozwala uzyskać 1,5 ECTS;
  • nakład pracy potrzebny do zaliczenia przedmiotu, któremu przypisano 3 ECTS, stanowi 10% semestralnego obciążenia studenta.

zobacz reguły punktacji
Język prowadzenia: polski

Zajęcia w cyklu "Semestr zimowy 2023/2024" (zakończony)

Okres: 2023-10-01 - 2024-01-28
Wybrany podział planu:
Przejdź do planu
Typ zajęć:
Laboratorium, 30 godzin, 12 miejsc więcej informacji
Wykład, 30 godzin, 36 miejsc więcej informacji
Koordynatorzy: Jacek Tabor
Prowadzący grup: Piotr Gaiński, Artur Kasymov, Igor Podolak
Lista studentów: (nie masz dostępu)
Zaliczenie: Przedmiot - Egzamin
Ocena wliczana do średniej:

tak

Efekty kształcenia:

Student po ukończeniu kursu powinien uzyskać wiedzę na temat podstawowych podejść do metod uczenia maszynowego (ang. machine learning ML). Duża część materiału będzie miała charakter pogłębiony. Stąd absolwent kursu będzie umiał zastosować metody ML w trakcie pracy w zawodzie. Najlepsi studenci zdobędą na tyle wiele wiedzy by przygotowywać się do pracy naukowej w tej dziedzinie.

Forma i warunki zaliczenia:

Zaliczenie na podstawie zadań teoretycznych rozwiązywanych w trakcie ćwiczeń, zadań programistycznych i projektu, a także aktywności. Także egzamin z części materiału w trakcie semestru.

Metody sprawdzania i kryteria oceny efektów kształcenia uzyskanych przez studentów:

Egzamin cząstkowy (tzw. mid-term) dla całego roku w trakcie semestru.

Metody dydaktyczne - słownik:

Metody praktyczne - ćwiczenia laboratoryjne
Metody praktyczne - ćwiczenia przedmiotowe
Metody problemowe - klasyczna metoda problemowa
Metody programowane - z użyciem komputera

Sylabus przedmiotu dla studentów rozpoczynających studia od roku akademickiego 19/20 lub później:

Matematyka komputerowa, studia stacjonarne drugiego stopnia, rok 1
Matematyka komputerowa, studia stacjonarne pierwszego stopnia, rok 2
Informatyka, studia stacjonarne drugiego stopnia, rok 1
Matematyka komputerowa, studia stacjonarne drugiego stopnia, rok 2
Informatyka, studia stacjonarne drugiego stopnia, rok 2
Matematyka komputerowa, studia stacjonarne pierwszego stopnia, rok 3

Pełny opis:

Uczenie maszynowe

Spring 2016

Instructor: Igor Podolak Time: Lecture Wed 12:00 – 14:00

Email: igor.podolak@uj.edu.pl

Place: 2171 Wydzial Matematyki

i Informatyki UJ

Instructors: Igor Podolak Time: 14.00 – 16.00

Agnieszka Pocha

Maciej Brzeski

Office Hours: After class, or in o.ce hours, or by appointment, or post your question on the ML forum.

Main References: This is a restricted list of various interesting and useful books that will be touched during the course. You need to consult them occasionally.

Christopher M. Bishop, Pattern Recognition and Machine Learning , Springer, 2006.

Sergios Theodoridis, Machine Learning, a Bayesian and optimization perspective , Academic Press 2015.

H Trevor Hastie, Robert Tibshiranie, Jerome Friedman, The elements of Statistical Learning, 2nd ed., Springer 2009.

Peter Flach, Machine Learning: The Art and Science of Algorithms that Make Sense of Data , Cam.bridge University Press, 2012.

Gavin, Hackeling, Mastering machine learning with scikit-learn , Packt Publishing 2014.

Daphne Koller, Nir Friedman, Probabilistic graphical models, MIT Press 2009.

Objectives: This course is primarily designed for graduate students for them to learn the basics of machine learning. We shall start with the methods for linear models’ building, the definition of a model itself, approaches for model evaluation and validation.

The classes accompanying the lectures shall dig deeper into the problems. Students are expected to interpret the mathematics and implement algorithms using Python programming language. Students shall build some implementations of learning models, build and evaluate solutions for given problems, find out how to cope with live problems using ML methods. Students shall gain knowledge of available ML libraries, mainly these in Python.

Prerequisites: An undergraduate-level understanding of probability, statistics, graph theory, algorithms, and linear algebra is assumed, as well as some calculus.

Python programming skills are greatly welcome.

Tentative Course Outline (this is very tentative and shall most probably be shorter):

1. What the hell is all that thing called machine learning about?

what is it to learn?

• regression and classification

• supervised vs unsupervised training

• model evaluation and validation, comparing models, statistical tests

2. Mean squares linear estimation

• geometric interpretation

• solutions for some problems: image deblurring by deconvolution, noise cancelation, Kalman filters

3. Least Mean Squares and gradient descent algorithms

• Least Mean Squares algorithm

• mean square error cost function, steepest descent approach

• convergence, step sizes

• preprocessing data and its impact on the algorithm

• the stochastic gradient descent

• regularization methods: Ockham’s razor, ridge regression and lasso methods,

4. Approaches to classification

• what is classification and what di.ers it from regression problems

• the Bayesian classifier model, the Na¨ıve Bayes classifier

• nearest neighbour model

• logistic regression

• classification trees, random forests

• combined models: bagging, stacking, etc.

• boosting models, AdaBoost

• Linear Discriminant Analysis LDA

• sparse solution search, .0, .1, .2 minimizers

5. Kernel methods

• Reproducing Kernel Hilbert Spaces RKHS

• Support Vector Machines SVM

• Support Vector Regression

• problem of choosing right parameters

6. Bayesian learning

• the maximum likelihood ML and the maximum a posteriori MAP estimators

• the expectation-maximization EM algorithm

7. Additive models and ensemble learning

• decision trees

• bagging and boosting trees, random forests

• Boosting methods, AdaBoost approach

• impact of boosting on bias and variance of models

• training other ensembles of models

8. Unsupervised learning

• Association rules

• clustering methods: K-means and hierarchical

• Self-organizing maps as example of clustering

9. Graphical models

• inference, causality

• separation, sigmoidal bayesian networks

• conditional random fields CRF

• Hidden Markov Models HMM

• learning graphical models

10. Dimensionality reduction

• intrinsic dimensionality of problems, curse of dimensionality

• PCA, SVD, ICA, etc.

• manifold learning

• eigenfaces generation

Grading Policy:

Homeworks and quizzes (30%), Midterm (20%), Three to four pro jects (40% = 4 * 10%), Attention and activ.ity (10%)

Final (30%)

Important Dates: ¯

Midterm . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Ab¯an 16, 1393

Final Exam . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Dey 18, 1393

Course Policy:

• Please sign up for MUM the usual way.

Class Policy:

• Regular attendance is essential and expected.

Academic Honesty: Lack of knowledge of the academic honesty policy is not a reasonable explanation for a violation.

Literatura:

Christopher M. Bishop, Pattern Recognition and Machine Learning , Springer, 2006.

Sergios Theodoridis, Machine Learning, a Bayesian and optimization perspective , Academic Press 2015.

H Trevor Hastie, Robert Tibshiranie, Jerome Friedman, The elements of Statistical Learning, 2nd ed., Springer 2009.

Peter Flach, Machine Learning: The Art and Science of Algorithms that Make Sense of Data , Cam.bridge University Press, 2012.

Gavin, Hackeling, Mastering machine learning with scikit-learn , Packt Publishing 2014.

Daphne Koller, Nir Friedman, Probabilistic graphical models, MIT Press 2009.

Opisy przedmiotów w USOS i USOSweb są chronione prawem autorskim.
Właścicielem praw autorskich jest Uniwersytet Jagielloński w Krakowie.
ul. Gołębia 24, 31-007 Kraków https://www.uj.edu.pl kontakt deklaracja dostępności USOSweb 7.0.3.0 usosweb12c