Duck 1 Duck 2 Duck 3

Wolna niedziela...



Czyli wolna teoretycznie od pracy.

Taki dzień jak dziś zdarza się coraz częściej. Mam spore plany na dziś... A cóż to za plany? - zapytacie.

Zacznijmy od tego, że dziś muszę napisać cztery oferty do postępowań. Może nie jest to (teoretycznie) dużo pracy ale trzeba dobrze się zastanowić nad wyceniami usług - tak, żeby nie robić za (pół)darmo, ale też, żeby nie przestrzelić. Konkurencja jest silna.

Na dziś także zaplanowany mam artykuł. O czym? Dla kogo? Tego nie powiem na razie :) Postaram się by było ciekawie.

Może się wydawać, że to strasznie nudne zajęcia, ale zobaczcie proszę jak dużo trzeba nad tym wszystkim myśleć. Używanie głowy jest naprawdę przyjemne. Mógłbym zrzucić te wszystkie zajęcia na #AI. I tu zaczyna się właśnie cała magia...

Magia AI.

Artificial Inteligence czyli Sztuczna Inteligencja. Termin powstał w latach 50-tych XX wieku. Przez wiele lat rozwój mechanizmów sztucznej inteligencji był bardzo ograniczony. Niewielkie możliwości obliczeniowe (patrząc z dzisiejszego punktu widzenia wręcz mikro) nie pozwalały na wielki rozwój praktyczny. Widać to zwłaszcza w latach 70-tych w czasie tzw. "zimy AI". W tym czasie rozwój był - delikatnie mówiąc - niewielki.

W latach 80-tych i 90-tych powstało uczenie maszynowe (machine learning). Maszyny same zaczęły wyciągać wnioski na podstawie danych.

Dopiero po roku 2010 nastąpiła eksplozja głębokiego uczenia (deep learning) wykorzystującego wielowarstwowe sieci neuronowe (modele komputerowe symulujące działanie ludzkiego mózgu). #AI zaczęła przewyższać ludzi w analizie danych i rozpoznawaniu obrazów.

Czy AI jest remedium na wszystko?

Sztuczna inteligencja wykorzystywana jest przez miliony osób. Codziennie (żeby nie napisać wiele razy dziennie). Dzięki różnym modelom możemy (przykładowo):
* napisać listy, pisma
* generować obrazy
* zamieniać tekst na głos i odwrotnie
* budować całe przepływy danych i procesy...

Korzystając z narzędzi AI musimy być bardzo ostrożni. Przede wszystkim należy założyć (zawsze!!), że te narzędzia mogą się pomylić. Błędy takie nazywamy "halucynacjami". Mówimy o "halucynowaniu przez AI". Czy często się to zdarza? Wbrew pozorom - tak. Wyniki jakie zwracają nam modele są tak dobre, jak dobre były dane, na których model był uczony.

Innym kłopotem może być nieuwaga Użytkownika. Pracujemy z różnymi dokumentami, zawierającymi wiele, wiele danych. O ile prompt: "Zaprojektuj mi raport..." i następnie szczegółowe opisanie jak taki raport ma wyglądać jest ok, to jeśli wrzucimy do narzędzia plik z danymi firmowymi albo osobowymi może już nie być dobrym rozwiązaniem (zwłaszcza jeśli jest to model publiczny jak ChatGPT czy Microsoft Copilot. Jeśli nie mamy lokalnego modelu, który zapewnia nam bezpieczeństwo danych to nie róbmy tak. Przesłanie takiego pliku do publicznego modelu należy traktować jak wyciek danych a zatem incydent. Pamiętajmy, że co wrzucimy do Internetu to już tam zostanie...

Trzeba także zastanowić się nad działaniami przestępców. Deepfake'i jak nakładnie warstwy wideo (np. wizerunek innej - najczęściej znanej lub bliskiej - osoby) czy zmiana głosu (a dziś wystarczy próbka pięciosekundowa by móc generować nasz głos... i przestępcy chętnie z takich możliwości korzystają. A za kilka dolarów można mieć dostęp chociażby do ElevenLabs. Próbka głosu + tekst ==> nasz głos z dowolną treścią.

Takich zagrożeń jest znacznie, znacznie więcej.

🫵 Takich zagrożeń jest znacznie, znacznie więcej.
🫵 Możesz się o nich dowiedzieć na szkoleniu z bezpieczeństwa w Internecie.
👉 Gdzie? U Ciebie w Firmie.
👉 Kiedy? W uzgodnionym terminie.
👉 Za ile? Zadzwoń lub napisz, a dopasuję ofertę do Twoich potrzeb.
☎️ tel: 792-15-04-84
📧 e-mail: smaga.krzysztof@gmail.com