Menu Zamknij

Python AI

Opis kursu

  • Płacisz za jeden miesiąc nauki.
  • Uczysz się tak długo, jak potrzebujesz.
  • Pełne wsparcie na każdym etapie nauki.
  • Pytasz o wszystko, tyle razy, ile potrzebujesz i wtedy, kiedy chcesz. Szybko otrzymasz odpowiedź.
  • Spotkania 1:1 online + nagranie ze spotkania.
  • Plan nauki dopasowany do Ciebie.
  • Dużo zadań i projektów praktycznych.
  • Stały feedback na Twój kod i strukturę projektów.
  • Uczysz się w swoim tempie.
  • Motywuję Cię do pracy i dbam o Twoje postępy.
  • Portfolio w kilka miesięcy.
  • Szukasz pracy w trakcie kursu.
  • Otrzymasz certyfikat ukończenia kursu.
promocja ikona
PROMOCJA – pierwsze spotkanie GRATIS

Już teraz

zapisz się na kurs​

Zostaw swoje namiary, a skontaktuję się z Tobą w sprawie kursu

    * - pola obowiązkowe

    Administratorem danych osobowych jest KM PROGRAMS KRZYSZTOF MAKOWSKI z siedzibą przy ul. Cicha 7, 42-454 Niegowonice, Polska. Dane osobowe osób korzystających z formularza kontaktowego przetwarzane są w celu identyfikacji nadawcy oraz obsługi zapytania przesłanego przez udostępniony formularz. Więcej informacji o przetwarzaniu danych osobowych, w tym o przysługujących Ci uprawnieniach, znajduje się w Polityce Prywatności.

    Plan kursu

    Znasz już język Python oraz zagadnienia z zakresu Data Science? Świetnie! Możesz od razu przejść do nauki zagadnień z tego kursu. Dopiero zaczynasz? Nie ma problemu! Uczysz się języka Python oraz Data Science razem ze mną od podstaw i potem przechodzimy do nauki AI. W praktyce oznacza to, że uczysz się wszystkich potrzebnych zagadnień od początku, a wszystko z moją pomocą krok po kroku. To praktyczna ścieżka, która szybciej zaprowadzi Cię do kariery w IT.

    W tej sekcji zbudujesz aplikacje do portfolio, w których wdrożysz automatyzacje procesów, Data Science, AI, interfejs użytkownika. Już na tym etapie nauki Twoje portfolio będzie profesjonalne i atrakcyjne, ponieważ w aplikacjach znajdzie się:

    • Warstwa repozytoryjna do komunikacji z dowolnym rodzajem plików,
    • Asynchroniczne monitorowanie zawartości plików i katalogów,
    • Zarządzanie arkuszami Excel,
    • NumPy oraz Pandas,
    • Zadania cykliczne i harmonogramowanie zadań,
    • Komunikacja z różnego rodzaju API do pozyskiwania danych,
    • Zarządzanie skrzynką mailową,
    • Generowanie faktur,
    • Generowanie PDF,
    • Generowanie raportów i statystyki z przetworzonych danych,
    • Gen AI, np. sterowanie głosem, generowanie dokumentów, wykorzystanie ChatGPT i innych modeli LLM,
    • Webowy interfejs użytkownika,
    • Generowanie plików dźwiękowych na podstawie dostarczonego tekstu
    • Inne narzędzia – cały czas rozbudowuję te sekcję.

    Wszystkie aplikacje będą przetestowane (wysokie pokrycie kodu testami), zadbamy o statyczną analizę kodu oraz o taką strukturę projektów, którą potem bez kłopotu będziesz w stanie wzbogacić o rozwiązania z kolejnych etapów naszej wspólnej nauki.

    W tej sekcji zaimplementujesz agenta AI. W aplikacji porównamy popularne modele LLM i utworzymy warstwę abstrakcyjną do wygodnej komunikacji z dowolnym modelem LLM. Przygotujemy dane dla modeli LLM za pomocą crawlera oraz scrapera. Całość przetestujemy i uzyskamy wysokie pokrycie kodu testami. Rozbudujesz swoje portfolio o kolejne ciekawe projekty. 

    • Przygotowanie struktury projektu
    • Przygotowanie platformy / kontenera Ollama
    • Ekstrakcja danych (crawleer, scraper)
    • Teoria i porównanie modeli LLM
    • Implementacja warstwy abstrakcyjnej do pracy z dowolnym modelem LLM
    • Implementacja warstwy agenta AI
    • Dostosowanie komponentów agenta AI do pracy z dowolnym modelem LLM
    • Badanie jakości wyników pracy agenta AI
    • Implementacja testów

    W tej sekcji wejdziesz w ekosystem LangChain – od podstawowych pojęć po budowę gotowych do wdrożenia aplikacji. Nauczysz się łączyć różne modele LLM, podpinać dowolne źródła danych, korzystać z agentów, narzędzi i executorów, a także monitorować i stroić przepływy za pomocą LangSmith. Zbudujemy pełny stack (backend + frontend), dołożymy wektorowe bazy i skonfigurujemy parsery.

    • Omówienie pojęć związanych z LangChain
    • Przygotowanie aplikacji Python do pracy z LangChain
    • Piszemy pierwszą aplikację wykorzystującą LangChain
    • Konfiguracja połączenia LangChain z dowolnym źródłem danych
    • Konfiguracja połączenia LangChain z ChatGPT oraz innymi modelami LLM
    • Teoria i praktyczne wykorzystanie Agent, Tool, Executor
    • Wdrożenie aplikacji fullstack z wykorzystaniem LangChain
    • Monitorowanie aplikacji wykorzystującej LangChain za pomocą narzędzia LangSmith
    • Konfiguracja parserów
    • Konfiguracja aplikacji wykorzystującej LangChain do pracy z wektorowymi bazami danych (Pinecone)
    • Budowania chat AI z wykorzystaniem LangChain
    • Piszemy projekt praktyczny wykorzystujący narzędzie LangChain

    Zaczynamy szczegółową naukę Machine Learning oraz Deep Learning. W pierwszej kolejności musisz zainstalować odpowiednie środowisko programistyczne dla ML / DL. Najwyższa pora wykorzystać możliwości chmury do pracy z modelami AI.

    • Omówienie podstawowych zagadnień z zakresu Machine Learning oraz Deep Learning
    • Porównanie środowisk programistycznych
    • Konfiguracja wybranego środowiska (Google Colab, GitHub Codespaces,  Anaconda)
    • Jupyter Notebook

    W tej sekcji piszemy projekt, który będzie szablonem do pracy z dowolnym modelem AI. Dzięki temu poznasz wzorzec postępowania, który wykorzystasz w przyszłych aplikacjach.

    • Wprowadzenie pojęć związanych z uczeniem maszynowym
    • Klasyfikacja systemów uczenia maszynowego
    • Sposoby analizy problemu biznesowego pod kątem ML
    • Analiza charakteru i selekcja danych
    • Podział na zbiór testowy i treningowy.
    • Data preprocessing
    • Transformatory
    • Dobór modelu
    • Pipelines
    • Wdrażanie modelu
    • Testowanie i ocena modelu
    • Strojenie hiperparametrów modelu
    • Przygotowanie modelu do wykorzystania w środowisku produkcyjnym

    Kiedy masz już szablon projektu do pracy z dowolnym modelem AI, najwyższa pora poznać mechanizmy związane z Machine Learning oraz Deep Learning. W pierwszej kolejności skupimy się na ML i bibliotece Scikit-learn.

    • Klasyfikator binarny
    • Klasyfikator wieloklasowy
    • Klasyfikacja wieloetykietowa
    • Regresja
    • Regresja – równanie normalne
    • Gradient prosty
    • Wsadowy gradient prosty
    • SGD
    • Mini-batch gradient descent
    • Regresja wielomianowa
    • Regularyzowane modele liniowe
    • Regresja metodą lasso
    • Regresja logistyczna
    • Regresja softmax
    • Maszyna wektorów nośnych
    • SVM – klasyfikacja nieliniowa, regresja
    • Drzewa decyzyjne – klasyfikacja, regresja
    • Lasy losowe
    • Uczenie zespołowe – wzmacnianie
    • Redukcja wielowymiarowości
    • Uczenie nienadzorowane
    • DBSCAN
    • Wykrywanie anomalii

    W tej sekcji poznasz rozwiązania z zakresu Deep Learning w oparciu o bibliotekę TensorFlow / Keras.

    • Teoria sieci neuronowych
    • Sztuczne sieci neuronowe
    • Perceptrony wielowarstwowe
    • Modele wielowarstwowe
    • Tuning hiperparametrów
    • Głębokie sieci neuronowe
    • Splotowe sieci neuronowe
    • Rekurencyjne sieci neuronowe
    • Autokodery
    • Generatywne sieci przeciwstawne
    • Modele rozproszone
    • Uczenie przez wzmacnianie

    Newsletter