u/Leniwcowaty

🔥 Hot ▲ 285 r/Polska

Bańka GenAI popsuła Machine Learning...

Coś dla może bardziej technicznych osób, a może właśnie nie. Może ktoś nie techniczny się tym zainteresuje.

Od razu zaznaczę, bo mi się znudziło czytanie debilnych komentarzy - ten post nie jest napisany przez Gen AI, nie był edytowany, czy przerabiany przez AI. Wszystko napisane przeze mnie osobiście. We cool now?

No więc tak. Gen AI, niektórzy kochają, większość pogardza. Nie dziwię się, też nie przepadam za tą technologią. W sensie rozumiem jej mocne strony, widzę przydatność, ale zwyczajnie denerwuje mnie takie poleganie na tym jakby było nieomylne i doskonałe. Tak, czasem Gen AI się przydaje, fajnie działa jako narzędzie do przeglądania długich dokumentacji, żeby zrobić sobie lokalne wiki, ale bez przesady. Narzędzie jak każde inne, a nie bóstwo.

No ale wiemy jak świat wygląda, generalnie normalni ludzie są przeciwni wpychaniu AI wszędzie i do wszystkiego, opierania całego cyfrowego życia i osiągnięć o AI, nie muszę wam tłumaczyć. Z grubsza podejście większości ludzi AI = BAD. I nie przyszedłem mówić, że nie.

Ale zauważam, że coraz więcej ludzi myli GenAI z ML (Machine Learning). I pewnie, na powierzchni to wygląda identycznie - wkładasz ogromne ilości danych do modelu, a model wypluwa "coś". Tylko że ML istniało dłuuuuugo przed GenAI i nie działa w taki sam sposób. Prawdziwy ML nie myśli, nie racjonalizuje, nie próbuje nic stworzyć.

Machine Learning ma jedno zadanie - przyjąć ilość danych, która jest nieprzetwarzalna przez człowieka, przeanalizować je i odpowiedzieć na pytanie zapieczone w jego modelu. To nie jest ChatGPT, któremu wrzucasz kilka książęk i odpytujesz z fabuły i znaczenia filozoficznego. To jest na przykład model powstały w 2012 roku, którego jedynym celem istnienia było znalezienie anomalii danych pobranych z kolizji cząsteczek. Cały model był wytrenowany na petabajtach znanych anomalii z jednym założeniem - rozpoznaj wzór. Następnie przepuszczono przez niego petabajty nieprzetworzonych danych. I w ten sposób, dzięki "clankerowi" naukowcy z CERN odkryli Bozon Higgsa. Bierzesz dane, analizujesz i odpowiadasz na pytanie.

Przykłady można mnożyć, jak chociażby wepchnięcie w model wszystkich zdjęć satelitarnych Marsa, by ten opracował najbardziej optymalną trasę dla Opportunity i Curiosity. Bo ML przetrenowany na miliardach zdjęć satelitarny był w stanie rozpoznać drobną nierówność cienia jako potencjalną przeszkodę, którą należy ominąć, w przeciwieństwie do człowieka, który mógłby pomyśleć, że to mucha mu usiadła na ekranie.

No ale co mnie złamało i wkurwiło tak, że postanowiłem napisać ten post? Ano powszechny hejt na RedHat, ponieważ ogłosili, że otrzymali od USAF kontrakt na opracowanie nowego systemu identyfikacji i namierzania dla lotnictwa, opartego na algorytmach Machine Learning. I możemy tu się spierać, czy to moralne, czy nie, czy powinni współpracować z wojskiem czy nie, czy powinni tworzyć taki system, czy nie. Nie to jest powodem hejtu. Hejt jest na AI. Hejt jest na to, że ludzie (albo raczej skończeni idioci) myślą, że wojsko teraz będzie podpinało ChataGPT od rakiet. I to nie jest przesada, cytując - "it means letting ChatGPT decide which humans to KILL based on inevitably biased data".

W tym zdaniu jest taka ilość bzdur, że aż mi się to w pale nie mieści. Traktowanie Machine Learningu jako "ChatGPT" jest po prostu głupie. Nawet nie głupie, to po prostu pokazuje brak jakiejkolwiek podstawowej wiedzy o tym, jak w ogóle ML działa i czym się różni od GenAI. "Decide which humans to kill" jest interpretacją "track, identify and analyze provided data to evaluate their validity as attack targets". Z kolei "inevitably biased data" - dlaczego? Co skłania kogoś, kto pisze taki komentarz do przekonania, że model ML tworzony przez prywatną firmę na bazie petabajtów danych z konfliktów zbrojnych na całym świecie z ostatnich 60 lat po to, by stwierdzić, czy cel jest militarny czy cywilny, będzie miał jakieś "uprzedzenia"? Czy osoba pisząca to myśli, że teraz Trump będzie siedział i gadał sobie z rakietą, dyskutując którzy ludzie są bardziej MAGA, a którzy mniej?

Analiza danych - to jest JEDNA RZECZ w której ML jest dobre i wykorzystywane od dekad. Spłycanie tego do "podpięcia ChataGPT do bomby" jest albo skrajną głupotą, albo celowym rozsiewaniem dezinformacji.

I na koniec powtórzę - tu nie chodzi o moralność czy zasadność tworzenia takiego systemu. Bo co śmieszne, nie widziałem ani jednej osoby, która by to dyskutowała. Wszyscy się zawiesili na tym pieprzonym AI.

Rant over, po prostu musiałem wypluć z siebie frustrację. Jako ktoś, kto od lat interesuje się ML i przykro mi, że spłycamy tak wspaniałą technologię do "ChatGPT".

Howgh!

reddit.com
u/Leniwcowaty — 19 hours ago

GPIO Shutdown with DPI-driven LCD

Hello, friends!

I'm in the process of making a compact digital photo frame powered by Pi Zero 2 W. I have bought a Waveshare 12885 LCD screen, which connects to GPIO header and is driven by DPI.

In my project I use GPIO 4 for service restart, and this can be easly moved to let's say GPIO 26, but I also use GPIO Shutdown function on GPIO 3 for one-button on/off. From what I have seen, GPIO 3 is essential for DPI and serves as DPI HSYNC.

I could move the power button to different GPIO, but if I understand correctly, GPIO 3 is the only one capable of ON/OFF functionality. If I move to a different GPIO pin, it will only work as shutdown button, and not power on.

Here's the manufacturer website for this screen: https://www.waveshare.com/wiki/7inch_LCD_for_Pi

In Debian-based RPIOS (which I use) it just uses a dtbo file to drive the screen, so I don't think I can remap HSYNC to different pin, right?

Any ideas on how to solve that problem?

reddit.com
u/Leniwcowaty — 1 day ago

Funny continues - FPM Mikrus 1000, a questionable 200 hp micro car!

Ummm so yeah... I kinda did a thing?

In 1981 the FPM (Fabryka Pojazdów Małych) was tasked by Our Beloved Government to build a worthy Group B challenger. So they licensed Satsuma AMP chassis, but put it a... very questionable engine.

The peak of 1981 engineering stupidity - a turbocharged 1.0 l OHV I4 generating a bit over 200 hp and redlining at 9000 RPM. Then they paired it with the stock 4-speed manual gearbox, switched the drivetrain to RWD, stiffened up the suspension (McPherson + solid axle) and sent it on its marry way. That's how FPM Mikrus 1000 was born.

The result - no power off the line, unless you clutch-dump at 4500 RPM, 238 kph top speed and steering that's basically "forward or else".

u/Leniwcowaty — 3 days ago

FPM Polak - a revolutionary 1.5 l family hatchback from 1978 Poland!

Yeah, I did the funny. A faithful (in terms of mechanics) replica of Polish FSO Polonez 1500 - 1.5 l I4 OHV cranking 68 hp and 110 Nm (the original had 73 hp and 110 Nm), 5 speed manual with exact ratios that Polonez had. Quite nice acceleration, 150 kph top speed, a floaty landboat with harsh steering. Everything tracks. And it zooms around Nurburgring like nobody's business.

u/Leniwcowaty — 4 days ago