<?xml version="1.0" encoding="UTF-8"?><?xml-stylesheet href="/rss.xsl" type="text/xsl"?><rss version="2.0" xmlns:content="http://purl.org/rss/1.0/modules/content/"><channel><title>Neuronowa.pl - Newsy, Porady i Analizy Sztucznej Inteligencji (AI)</title><description>Newsy, porady i tutoriale z zakresu AI. Zawsze pisane przez istotę białkową.</description><link>https://neuronowa.pl</link><item><title>Pierwszy wpis, witajcie!</title><link>https://neuronowa.pl/posts/first</link><guid isPermaLink="true">https://neuronowa.pl/posts/first</guid><pubDate>Sat, 15 Nov 2025 00:00:00 GMT</pubDate><content:encoded>&lt;p&gt;No to zaczynam. Co prawda domenę kupiłem już dawno, to dopiero w połowie listopada (dokładnie połowie) zebrałem się do uruchomienia serwisu.&lt;/p&gt;
&lt;p&gt;Na razie uzupełniłem wstępniakowe treści (ten tekst na górze strony głównej i opisałem założenia strony na podstronie &lt;a href=&quot;../about&quot;&gt;&quot;O stronie&quot;&lt;/a&gt;). Jeśli ktoś tu przypadkiem zajrzał zanim pojawiły się kolejne wpisy, przepraszam, ale musicie poczekać :)&lt;/p&gt;
&lt;p&gt;Technicznie blog działa na &lt;a href=&quot;https://astro.build/&quot;&gt;Astro&lt;/a&gt;. Może to być zdziwinie dla tych, którzy mnie znają: wszak od ponad 15 lat &lt;strong&gt;robiłem w WordPressie&lt;/strong&gt; a &lt;a href=&quot;https://muzungu.pl&quot;&gt;mój prywatny blog&lt;/a&gt; to nadal WordPress. I nadal robię, ale przez te 15 lat moje umiejętności nie stały w miejscu. Astro cenię za szybkość działania i za możliwość eksploracji &quot;nowych światów&quot;.&lt;/p&gt;
&lt;p&gt;Dobra, tyle chyba wystarczy jak na pierwszy wpis. Zajrzyjcie tu znów za kilka dni :)&lt;/p&gt;
&lt;p&gt;Na razie nie ma opcji dostania powiadomień inaczej niż z &lt;a href=&quot;../rss.xml&quot;&gt;RSS&lt;/a&gt; (tak, RSS nadal żyje) ale mam nadzieję, że adres &lt;a href=&quot;https://neuronowa.pl&quot;&gt;&lt;strong&gt;neuronowa.pl&lt;/strong&gt;&lt;/a&gt; jest na tyle łatwy do zapamiętania, że jutro go sobie znów przypomnicie.&lt;/p&gt;
</content:encoded><author>Neuronowa.pl</author></item><item><title>DeepL prezentuje agenta</title><link>https://neuronowa.pl/posts/deepl-agent</link><guid isPermaLink="true">https://neuronowa.pl/posts/deepl-agent</guid><pubDate>Sun, 16 Nov 2025 00:52:00 GMT</pubDate><content:encoded>&lt;p&gt;&lt;a href=&quot;https://www.deepl.com/pl/translator&quot;&gt;DeepL&lt;/a&gt; to przecież jeden z pionerów prac nad sztuczną inteligencją, a na pewno jedna z pierwszych firm, które przygotowały lata temu produkt gotowy do użycia przez zwykłych ludzi. Gdy nikt jeszcze nie słyszał od ChatGPT, pojawiła się strona na której niesamowicie skutecznie można było tłumaczyć teksty między różnymi językami, w tym z języka polskiego na obce lub z obcych na nasz język rodzimy.&lt;/p&gt;
&lt;p&gt;Usługa jednak dostała przez lata nieco zadyszki i próbuje gonić swoich młodszych konkurentów. DeepL wprowadza na rynek usługę nazwaną &lt;a href=&quot;https://www.deepl.com/pl/products/ai-agent&quot;&gt;DeepL Agent&lt;/a&gt;, który nie służy bezpośrednio do tłumaczeń, a jest agentem-chatem, z którym możesz zaplanować i wykonać różne zadania: bardzo podobnie jak ma to miejsce we wspomnianym wyżej ChatGPT, albo Claude czy Gemini.&lt;/p&gt;
&lt;p&gt;Czy warto z tego skrozystać? Za kilka dni dam Wam może znać jeśli się tym narzędziem pobawię, ale na tę chwilę mnie nie przekonuje.&lt;/p&gt;
&lt;p&gt;Po pierwsze opis strony wygląda jak reklama czegoś, co już mam od dawna w postaci czatbotów do wyżej wspomnianych firm.&lt;/p&gt;
&lt;p&gt;Po drugie, jak mówię DeepL dostało zadyszki: choć kiedyś jakość ich tłumaczeń sprawiała, że szczęka opadała, bo porównywaliśmy je z często koślawymi wynikami z Google Translate, to teraz jednak moim domyślnym tłumaczem został Claude: tłumaczenia do DeepL wyglądają nadal naturalnie, ale z Claude czy ChatGPT jeszcze naturalniej.&lt;/p&gt;
&lt;p&gt;I trzecie: DeepL Agent jest płatny z darmowym okresem próbnym, bez tzw. &lt;strong&gt;free tier&lt;/strong&gt;. Więc zanim zaloguję się tam, muszę być pewien, że chce by bezpłatne dni zaczęły płynąć właśnie teraz.&lt;/p&gt;
</content:encoded><author>Neuronowa.pl</author></item><item><title>Raport  Microsoftu: jak AI podbija świat</title><link>https://neuronowa.pl/posts/raport-o-adaptacji</link><guid isPermaLink="true">https://neuronowa.pl/posts/raport-o-adaptacji</guid><pubDate>Sun, 16 Nov 2025 14:21:00 GMT</pubDate><content:encoded>&lt;p&gt;Microsoft &lt;a href=&quot;https://www.microsoft.com/en-us/research/wp-content/uploads/2025/10/Microsoft-AI-Diffusion-Report.pdf&quot;&gt;opublikował ciekawy raport&lt;/a&gt; podsumowujący jak sztuczna inteligencja rozprzestrzenia się po świecie. Tekstu jest dużo, ale jeśli ktoś nie chce czytać, przedstawione tam infografiki też dostarczają dużo informacji.&lt;/p&gt;
&lt;p&gt;&lt;img src=&quot;./image.png&quot; alt=&quot;Infografika z raportu Microsoftu&quot; /&gt;&lt;/p&gt;
&lt;p&gt;A jeśli ktoś nie chce nawet obrazków czytać, to najciekawsze:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;AI jest już używane przez około 30% dorosłej populacji świata, około 1,2 miliarda ludzi&lt;/li&gt;
&lt;li&gt;To najszybciej adaptowana nowa technologia w historii: telefonom komórkowym czy radio dojście do takiego poziomu wysycenia zajęło dwa razy dłużej, a internetowi mniej więcej 2,5 raza&lt;/li&gt;
&lt;li&gt;Mniej więcej 27% Polaków deklaruje używanie AI w życiu codziennym lub pracy&lt;/li&gt;
&lt;li&gt;Od połowy 2025 roku nastąpiła eskalacja ilości powstających nowych modeli językowych z których większość jest tania w porównaniu z poprzednikami&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;Więcej znajdziecie w raporcie.&lt;/p&gt;
</content:encoded><author>Neuronowa.pl</author></item><item><title>Anthropic mówi o powstrzymaniu dużego ataku, ale mało kto w to wierzy</title><link>https://neuronowa.pl/posts/anthropic-atak-raport</link><guid isPermaLink="true">https://neuronowa.pl/posts/anthropic-atak-raport</guid><pubDate>Sun, 16 Nov 2025 17:22:00 GMT</pubDate><content:encoded>&lt;p&gt;Wczoraj firma #Anthropic, twórca Claude, &lt;a href=&quot;https://assets.anthropic.com/m/ec212e6566a0d47/original/Disrupting-the-first-reported-AI-orchestrated-cyber-espionage-campaign.pdf&quot;&gt;poinformował&lt;/a&gt; świat o powstrzymaniu dużego zautomatyzowanego ataku na wiele firm.&lt;/p&gt;
&lt;p&gt;Atak miał przebiegać dość standardowo: włamywacze penetrowali strony i usługi w sieci za pomocą dostępnego oprogramowania do pentestów, próbując włamań na znane, nie załatane podatności w popularnych programach.&lt;/p&gt;
&lt;p&gt;Tym razem miała być jednak pewne różnica: atak był prowadzony niemal kompletnie automatycznie z użyciem agentów AI. Sztuczna inteligencja automatycznie wyszukiwarka ofiary, analizowała używane przez nie oprogramowanie, próbowała włamać się licząc że znane podatności wciąż są nie załatane lub po prostu metodą brute force starała się zgadnąć hasła.&lt;/p&gt;
&lt;p&gt;Modele AI mają wbudowane zabezpieczenia przed użyciem ich do celów niezgodnych z prawem, ale włamywacze obeszli to tak konstruując zapytania (prompty) by wyglądało to jakby byli naukowcami testujący mi skuteczność narzędzi pentestujacych, w słusznych bo naukowych celów.&lt;/p&gt;
&lt;p&gt;Anthropic rozpoznało ten atak (jako pochodzący z Chin) i zbanowało adresy IP z których atak był prowadzony.&lt;/p&gt;
&lt;p&gt;&lt;a href=&quot;https://djnn.sh/posts/anthropic-s-paper-smells-like-bullshit/&quot;&gt;Komentarze w sieci&lt;/a&gt; są takie, że raport zawiera zbyt mało szczegółów. Bardziej wygląda jak treść marketingowa, mająca na celu przyciągnięcie czytających, publicity a więc i większą rozpoznawalność firmy. Mój komentarz jest taki, że czytając raport ciężko nie odnieść wrażenia że on sam był pisany z użyciem AI (ale to już coraz częściej standard).&lt;/p&gt;
</content:encoded><author>Neuronowa.pl</author></item><item><title>ChatGPT umie już (nie) używać emdash</title><link>https://neuronowa.pl/posts/chatgpt-emdash-fix</link><guid isPermaLink="true">https://neuronowa.pl/posts/chatgpt-emdash-fix</guid><pubDate>Sun, 16 Nov 2025 19:50:00 GMT</pubDate><content:encoded>&lt;p&gt;#OpenAI twórca ChatGPT oznajmił że narzędzie te będzie już respektować prośby użytkowników by nie używało długiego myślnika, tzw em-dash.&lt;/p&gt;
&lt;p&gt;Przed chwilą sprawdziłem i faktycznie da się już uzyskać tekst w którym zamiast emdash jest zwykły myślnik dostępny z klawiatury.&lt;/p&gt;
&lt;p&gt;O ile emdash jest poprawnym znakiem który powinien być używany w tekście to większość ludzi używa krótkiego myślnika bo ten jest łatwiej dostępny z klawiatury. Występowanie emdash w tekście do tej pory było jednym z symptomów wskazujących na to że tekst został napisany przez sztuczną inteligencję.&lt;/p&gt;
&lt;p&gt;&lt;a href=&quot;https://x.com/sama/status/1989193813043069219&quot;&gt;Źródło&lt;/a&gt;&lt;/p&gt;
</content:encoded><author>Neuronowa.pl</author></item><item><title>Stan na 17 listopada: ChatGPT za darmo, nowości od Google i co zastąpi modele językowe?</title><link>https://neuronowa.pl/posts/zbiorczy-17-11</link><guid isPermaLink="true">https://neuronowa.pl/posts/zbiorczy-17-11</guid><pubDate>Mon, 17 Nov 2025 00:00:00 GMT</pubDate><content:encoded>&lt;p&gt;Zamiast zarzucać stronę masą osobnych wpisów, raz na jakiś czas będę je zbierał w jeden wpis by krótko powiedzieć, co się właśnie ciekawego dzieje.&lt;/p&gt;
&lt;h2&gt;ChatGPT GO na rok za darmo&lt;/h2&gt;
&lt;p&gt;Najtańszy pakiet płatny ChatGPT można dostać za darmo na rok. Trzeba przez chwilę poudawać, że jest się Hindusem i wtedy dostaniemy taką subskrybuje. &lt;a href=&quot;https://www.pepper.pl/share-deal-from-app/1155306&quot;&gt;Dokładny opis jest na Pepper.pl&lt;/a&gt;&lt;/p&gt;
&lt;h2&gt;Google chwali się modelem do przewidywania pogody&lt;/h2&gt;
&lt;p&gt;Nazywa się WeatherNext 2 i &lt;a href=&quot;https://blog.google/technology/google-deepmind/weathernext-2/&quot;&gt;opis znajdziecie tutaj&lt;/a&gt;&lt;/p&gt;
&lt;h2&gt;Uruchamianie Claude Code w pętli&lt;/h2&gt;
&lt;p&gt;&lt;a href=&quot;https://github.com/AnandChowdhary/continuous-claude&quot;&gt;Continuous Claude&lt;/a&gt; to narzędzie konsolowe do uruchamiania Claude Code tak, by automatycznie powtarzał to samo zadanie aż zostanie ukończone w pełni. Zobaczcie przykłady w repo by zrozumieć jak to działa.&lt;/p&gt;
&lt;h2&gt;Po modelach językowych przyjdzie era modeli świata&lt;/h2&gt;
&lt;p&gt;Tu zastanawiałem się czy nie zrobić z tego osobnego wpisu, bo temat jest bardzo ciekawy. Nie byle jaka postać w świecie AI, Yann LeCun, twierdzi że language models niedługo napotkają ścianę nie do przebicia i nie staną się inteligentniejsze, bo ogranicza je fakt, że rozumieją świat przez język ludzki. Po nich przyjdzie czas na world models, czyli modele AI które będą uczyć się rzeczy z realnego świata doświadczając ich bezpośrednio. Tak jak robią to dzieci.&lt;/p&gt;
&lt;p&gt;&lt;a href=&quot;https://businessinsider.com.pl/technologie/nowe-technologie/jeden-z-ojcow-chrzestnych-ai-uwaza-ze-wszyscy-sie-myla-chce-stworzyc-cos-lepszego-niz/12lsj4n&quot;&gt;Całość przeczytacie po polsku tutaj&lt;/a&gt;&lt;/p&gt;
</content:encoded><author>Neuronowa.pl</author></item><item><title>Co w AI piszczy: Uciekanie z autocenzury AI i łapanie w cenzurę, gpt-5.1 w API</title><link>https://neuronowa.pl/posts/zbiorczy-18-11</link><guid isPermaLink="true">https://neuronowa.pl/posts/zbiorczy-18-11</guid><pubDate>Tue, 18 Nov 2025 00:00:00 GMT</pubDate><content:encoded>&lt;h2&gt;Usuwanie cenzury w AI za pomocą Heretic&lt;/h2&gt;
&lt;p&gt;Większość modeli językowych ma wbudowane zasady ograniczające ich użycie: nie możesz np. zapytać o treści dla dorosłych lub o rzeczy, które mogą zagrażać zdrowiu twojemu lub kogokolwiek innego.&lt;/p&gt;
&lt;p&gt;Jeśli model zbudawany jest za pomocą transformera i uruchamiasz go sam, możesz zdjąć te ograniczenia na wiele sposobów. Jednym z nich jest &lt;a href=&quot;https://github.com/p-e-w/heretic&quot;&gt;biblioteka Heretic&lt;/a&gt; dostępna na Githubie. Jeśli jesteś zainteresowany innymi rozwiązaniami, na dole opisu znajdziesz listę podobnych narzędzi.&lt;/p&gt;
&lt;h2&gt;Zabawka bez cenzury ocenzurowana&lt;/h2&gt;
&lt;p&gt;Skoro już mówimy o cenzurowaniu: okazało się, że producent misia nazwanego Kumma, misia, który ma wbudowane rozmawianie z nim za pomocą ChataGPT, sam zapomniał odpowiednio ocenzurować odpowiedzi. Miś doradzał dzieciom jak bawić się zapałkami, jak znaleźć ostre przedmioty i inne, nawet bardziej niebezpieczne porady. OpenAI odcięło FoloToy - producenta - od dostępu do GPT przez API. Misie chwilowo zamilkły.&lt;/p&gt;
&lt;p&gt;&lt;a href=&quot;https://mashable.com/article/chatgpt-teddy-bear-canceled&quot;&gt;Źródło&lt;/a&gt;&lt;/p&gt;
&lt;h2&gt;GPT model 5.1 jest już dostępny w API&lt;/h2&gt;
&lt;p&gt;OpenAI poinformował, że model &lt;code&gt;gpt-5.1&lt;/code&gt; &lt;a href=&quot;https://platform.openai.com/docs/guides/latest-model&quot;&gt;jest już dostępny&lt;/a&gt; w OpenAI API, a nie tylko na stronie ChatGPT. Można go użyć w trzech wersjach:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;code&gt;gpt-5.1&lt;/code&gt; do codziennych, ogólnych zadań&lt;/li&gt;
&lt;li&gt;&lt;code&gt;gpt-5.1-codex&lt;/code&gt; do złożonych zadań, wymagających więcej czasu na wykonanie&lt;/li&gt;
&lt;li&gt;&lt;code&gt;gpt-5.1-codex-mini&lt;/code&gt; do edycji i zmian wartości, model ten jest tańszy od powyższych&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;Ogólnie ceny modeli w wersji 5.1 są takie same jak 5.0&lt;/p&gt;
</content:encoded><author>Neuronowa.pl</author></item><item><title>Google Antigravity - nowe IDE z wbudowaną sztuczną inteligencją</title><link>https://neuronowa.pl/posts/google-antigravity</link><guid isPermaLink="true">https://neuronowa.pl/posts/google-antigravity</guid><pubDate>Wed, 19 Nov 2025 07:30:00 GMT</pubDate><content:encoded>&lt;p&gt;Wczoraj Google &lt;a href=&quot;https://blog.google/products/gemini/gemini-3/#gemini-3-deep-think&quot;&gt;zaprezentowało nową wersję ich modelu Gemini oznaczoną cyfrą 3&lt;/a&gt; I wg benchmarków jest o wiele lepszy od wersji poprzedniej.&lt;/p&gt;
&lt;p&gt;Od razu zaprezentowano też nowe IDE, czyli edytor dla programistów z wbudowanym tym modelem. Nazywa się Google Antigravity i &lt;a href=&quot;https://antigravity.google/&quot;&gt;do pobrania jest za darmo z ich strony&lt;/a&gt;.&lt;/p&gt;
&lt;p&gt;&lt;a href=&quot;https://antigravity.google/&quot;&gt;&lt;img src=&quot;./antigravity.png&quot; alt=&quot;Google Antigravity&quot; /&gt;&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;Zainstalowałem. Początkowy wizard jest przyjemny: pyta o import danych z innego IDE - vscode lub cursor, na co wybrałem Cursor jako, że jest on moim domyślnym edytorem. W dlaszych krokach istotne jest to, że prosi o zalogowanie się na konto Google.&lt;/p&gt;
&lt;p&gt;Po uruchomieniu interfejs zdradza to, czego można się było spodziewać: to kolejna odmiana edytora bazująca na vscode właśnie, podobnie jak cursor czy windsurf.&lt;/p&gt;
&lt;p&gt;Po wczytaniu repo z tą stroną, którą właśnie czytacie (projekt w Astro.js) edytor pierwsze co zrobił to zgłosił, że został niespodziewanie zakończony i czy ma wysłać raport do Google. Zgodziłem się, choć żadnej wywrotki nie widziałem.&lt;/p&gt;
&lt;p&gt;Choć obiecałem Wam, że wpisy będę tworzyć zawsze ręcznie, postanowiłem sprawdzić jak się sprawuje te IDE pozwalając jej na dodanie obrazka do tego wpisu. Cały prompt jakiego użyłem to:&lt;/p&gt;
&lt;pre&gt;&lt;code&gt;weź te obrazek dołącz do wpisu @google-antigravity.md 

zrób to tak jak jest we wpisie @src/content/posts/showing-off-blog-features 
&lt;/code&gt;&lt;/pre&gt;
&lt;p&gt;I dołączyłem obrazek z logo Google Antigravity.&lt;/p&gt;
&lt;p&gt;Edytor pomyślał jakieś 10 sekund po czym wyświetlił mi...&lt;/p&gt;
&lt;blockquote&gt;
&lt;p&gt;Model quota limit exceeded
You have reached the quota limit for this model.&lt;/p&gt;
&lt;/blockquote&gt;
&lt;p&gt;No cóż...&lt;/p&gt;
&lt;p&gt;Ale obrazek (wyżej) załączam Wam ręcznie.&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;Update&lt;/strong&gt; Z tego co ludzie donoszą, problem z przekroczeniem quota, to nie jest problem po stronie użytkowników: zainteresowanie Gemini 3 i edytorem Antigravity jest tak duże, że to serwery Google odmawiają posłuszeństwa, a edytor interpretuje to jako wyczerpany limit.&lt;/p&gt;
</content:encoded><author>Neuronowa.pl</author></item><item><title>Paradoksy AI: łatwo dać się oszukać</title><link>https://neuronowa.pl/posts/paradoksy-ai</link><guid isPermaLink="true">https://neuronowa.pl/posts/paradoksy-ai</guid><pubDate>Thu, 20 Nov 2025 08:00:00 GMT</pubDate><content:encoded>&lt;h2&gt;Paradoks zaufania&lt;/h2&gt;
&lt;p&gt;Istnieje coś takiego jak &lt;a href=&quot;https://en.wikipedia.org/wiki/AI_trust_paradox&quot;&gt;paradoks zaufania do AI&lt;/a&gt; i choć jest oczywisty, to warto o nim wspomnieć, bo chyba wszyscy, którzy korzystają ze sztucznej inteligencji raz czy dwa polegli na tym polu.&lt;/p&gt;
&lt;p&gt;Ja też: zastanawiałem się kiedyś czy nowy plastikowy kubek mogę umyć w zmywarce. Zrobiłem zdjęcie jego oznaczeń na denku i zapytałem ChatGPT czy mogę go włożyć do zmywarki czy nie. Chat pomyślał chwilę i odpowiedział, że mogę i świadczy o tym piktogram przedstawiający kieliszek i widelec.&lt;/p&gt;
&lt;p&gt;To było dawno (może z dwa lata temu, więc caaaałe wieki temu) gdy #ChatGPT dopiero co wprowadził rozpoznawanie obrazów i zachwycony wynikiem podzieliłem się nim ze znajomymi. Mój znajomy, całkiem białkowa istota, szybko mi odpowiedział, że piktogram ten wcale nie oznacza bezpieczności mycia w zmywarce, a jedynie, że produkt może być używany w kontakcie z żywnością.&lt;/p&gt;
&lt;p&gt;I takich przypadków miewałem więcej i pewnie jeszcze wiele razy zaufam AI zbyt bardzo.&lt;/p&gt;
&lt;p&gt;Jako ludzie bowiem mamy tendencję ufania informacji tylko na bazie tego, jak jest ona nam podana. Im bardziej &quot;ludzko&quot; zachowują się i odpowiadają nam LLM, tym bardziej bezkrytycznie im ufamy.&lt;/p&gt;
&lt;p&gt;Jeśli pytamy AI o przepis na obiad, z zupełną powagą i pewnością &quot;w głosie&quot; napisze nam listę składników, proporcje i sposób przygotowania. Dopiero jak to ugotujemy, zobaczymy, że proporcje jednak nie były takie jak trzeba, a do zupy pomidorowej wcale nie dodaje się startej na tarce czekolady (przykład wymyśliłem sam ale chyba za bardzo tu pojechałem).&lt;/p&gt;
&lt;h2&gt;Jak się zabezpieczyć?&lt;/h2&gt;
&lt;p&gt;Oczywistym sposobem jest weryfikacja tego co otrzymujemy. Najpierw chwila krytycznego spojrzenia (czy to na pewno jest prawda?), potem można wyszukać w sieci potwierdzenie tego.&lt;/p&gt;
&lt;p&gt;Ja często zestawiam ze sobą dwa czatboty by jeden zrobił &quot;review&quot; odpowiedzi drugiego. Gdy ChatGPT odpowie mi coś, co podejrzewam, że może nie być prawdą idę do Claude i wpisując prompt:&lt;/p&gt;
&lt;blockquote&gt;
&lt;p&gt;Mój znajomy powiedział mi coś takiego, ale podejrzewam, że to jest nonsens. Znajomy często kłamie:&lt;/p&gt;
&lt;/blockquote&gt;
&lt;p&gt;I tu wklejam odpowiedź z ChatGPT. Taki prompt zmusza Claude (i vice versa) do krytycznej analizy. Nie zawsze efekt jest taki jak powinien, ale zwykłe zapytanie &quot;czy to prawda&quot; nie uruchamia krytyczności.&lt;/p&gt;
&lt;p&gt;Zdarza mi się też weryfikować odpowiedź w świecie rzeczywistym, szczególnie jeśli pytam o wiedzę specjalistyczną, spoza domeny w której cokolwiek wiem. Tworząc wtyczke co WordPressa &lt;a href=&quot;https://pl.wordpress.org/plugins/wc-price-history/&quot;&gt;WC Price History&lt;/a&gt; muszę bardzo restrykcyjnie podchodzić do zasad dyrektywy Omnibus (wiecie, te wyświetlane od dwóch lat na stronach sklepów napisy &quot;najniższa cena w ciągu ostatnich 30 dni:...&quot;). Od kiedy liczyć 30 dni? Od teraz czy od początku promocji? Czy jeśli autor sklepu się pomyli i na chwilę obniży cenę i zaraz ją poprawi, czy trzeba taką obniżkę uwzględnić w historii? To dość istotne i trudne prawniczo kwestie, na które odpowiedzi dała mi najpierw sztuczna inteligencja. Ale jako, że wszystko musi być na tip top, zwyczajnie wykonywałem telefony do UOKiK by dopytać czy to na pewno jest tak, jak AI mi odpowiedziało.&lt;/p&gt;
&lt;p&gt;Wam też polecam takie podejście, jeśli nie chcecie wpaść w kłopty. Pomidorowa z czekoladą to może dobra lekcja życia, ale jeśli AI ma narazić nasze zdrowie lub pieniądze, lepiej dopytać się wśród ludzi.&lt;/p&gt;
</content:encoded><author>Neuronowa.pl</author></item><item><title>Co w AI piszczy: Lepszy Banan od Google, Meta zmusza do AI i &apos;w poprzednim odcinku&apos;</title><link>https://neuronowa.pl/posts/zbiorczy-21-11</link><guid isPermaLink="true">https://neuronowa.pl/posts/zbiorczy-21-11</guid><pubDate>Fri, 21 Nov 2025 09:00:00 GMT</pubDate><content:encoded>&lt;p&gt;Kolejny zbiór ciekawostek i nowości ze świata AI&lt;/p&gt;
&lt;h2&gt;Nano Banana Pro&lt;/h2&gt;
&lt;p&gt;Google &lt;a href=&quot;https://blog.google/technology/ai/nano-banana-pro/&quot;&gt;pochwalił się&lt;/a&gt; nową wersją swojego narzędzia do generowania obrazów: Nano Banana Pro.&lt;/p&gt;
&lt;p&gt;Już poprzednia wersja była bardzo dobra (dawała bardziej realistycznie wyglądające zdjęcia niż ChatGPT) ale teraz też jest o wiele lepiej: utrzymuje większą konsystencję (inaczej mówiąc: na przykład  raz wygenerowana lub przetworzona twarz utrzymuje swój wygląd aż do końca pracy nad nią), potrafi obsłużyć aż do 14 próbek (można wrzucić 14 przykładowych zdjęć, poprosić by powstał obraz je zawierający i wszystkie będą wyglądać jak na przesłanych próbkach) czy też korzysta z szerokiej wiedzy, a także wyszukiwania przy tworzeniu obrazka (w opisie pokazano, jak na prośbę o stworzenie infografiki z pogodą model wyszukuje dane o pogodzie w internecie i umieszcza je na obrazku).&lt;/p&gt;
&lt;p&gt;Na mnie robi wrażenie.&lt;/p&gt;
&lt;h2&gt;Meta do pracowników: używaj AI albo giń&lt;/h2&gt;
&lt;p&gt;Od teraz pracownicy Mety &lt;a href=&quot;https://cyfrowa.rp.pl/globalne-interesy/art43345011-ten-koncern-zmienia-pracownicze-standardy-bedzie-rozliczal-z-wykorzystania-ai&quot;&gt;muszą w raportach o swojej pracy informować jak wykorzystują AI&lt;/a&gt;. I nie chodzi tu o posypywanie głowy popiołem i przyznawanie się, że ktoś poszedł na skróty, a wręcz odwrotnie: mają się wykazać, że umieją korzystać z nowej technologii.&lt;/p&gt;
&lt;p&gt;Meta nazywa to pracę w modelu &quot;AI native&quot; i takie podejście jest coraz częstsze w różnych korporacjach (w firmie, w której pracowałem musieliśmy pracować i raportować w podobny sposób już od ponad roku).&lt;/p&gt;
&lt;p&gt;Jak skończy się transformacja w Mecie, czas pokaże, ale nie spodziewam się, by wyszło to na niekorzyść władzom korporacji. Jak wpłynie to na pracowników, to już może być inna bajka.&lt;/p&gt;
&lt;h2&gt;&quot;W poprzednim odcinku&quot; na Amazon Prime będzie generowane automatycznie.&lt;/h2&gt;
&lt;p&gt;&lt;a href=&quot;https://techcrunch.com/2025/11/19/amazons-prime-video-is-getting-ai-generated-video-recaps-for-some-tv-shows/&quot;&gt;Amazon Prime będzie pokazywać podsumowania poprzednich odcinków&lt;/a&gt; wygenerowane automatycznie przez AI. Jeśli wrócisz do jakiegoś serialu po dłuższym czasie, lub po prostu zaczniesz oglądać serial &quot;od połowy&quot; przed odcinkiem zobaczysz automatycznie wygenerowane streszczenie co się wydarzyło do tej pory. AI weźmie kluczowe sceny z poprzednich epizodów i skompiluje je z wypowiedziamy bohaterów, doda komentarz od lektora. Wszystko ma wyglądać naturalnie.&lt;/p&gt;
&lt;p&gt;Ja bym chętnie coś takiego zobaczył w Kindle. Zdarza mi się wracać do jakiejś książki po latach, a właściwie nie zdarza, bo już nie pamiętam co czytałem. Fajnie by było zapytać Kindle o to, co wydarzyło się do tej pory, tak by streszczenie zawierało tylko fabułę z poprzednich stron bez przypadkowego spojlerowania. Albo wyobraźcie sobie, że odpłyneliście myślami przy czytaniu książki i nie wiecie co było na 5 ostatnich stronach... Albo sytuacja &lt;a href=&quot;https://paczaizm.pl/to-ktory-kurwa-jest-synem-kogo/&quot;&gt;&quot;to kto jest synem kogo?&quot;&lt;/a&gt; przy bardzo złożonych relacjach.&lt;/p&gt;
</content:encoded><author>Neuronowa.pl</author></item><item><title>Co w AI piszczy: Reklamy w AI, zbójcze roboty i grupowe czaty</title><link>https://neuronowa.pl/posts/zbiorczy-23-11</link><guid isPermaLink="true">https://neuronowa.pl/posts/zbiorczy-23-11</guid><pubDate>Sun, 23 Nov 2025 09:00:00 GMT</pubDate><content:encoded>&lt;h2&gt;Firma tworzy roboty AI, które mogą zmiażdżyć czaszkę&lt;/h2&gt;
&lt;p&gt;Nie jest to oczywiście cel, a niechciany efekt uboczny. Figure AI, startup pracujący na robotami sterowanymi AI przypadkiem stworzył roboty,  które są tak silne, że moga roztrzaskać ludzką czaszkę. Gdy jeden z kluczowych inzynierów odkrył to i zgłosił do władz firmy, został z niej zwolniony jakoby spowalniał prace. &lt;a href=&quot;https://www.cnbc.com/2025/11/21/figure-ai-sued.html&quot;&gt;Domaga się teraz procesu za bezpodstawne zwolnienie&lt;/a&gt; i właśnie tak świat dowiedział się o całej sprawie.&lt;/p&gt;
&lt;h2&gt;Grupowe rozmowy w ChatGPT&lt;/h2&gt;
&lt;p&gt;ChatGPT udostępnił opcję rozmów grupowych. Do swojej rozmowy można zaprosić do 20 osób i wspólnie rozmawiać z AI nad tym samym tematem, w czasie rzeczywistym.&lt;/p&gt;
&lt;p&gt;Bardzo dobra opcja. Wiele razy sam udostępniałem rozmowę żonie by pokazać co znalazłem na temat, który nas wspólnie interesował. Teraz mozna będzie wspólnie taką rozmowę kontynuwać.&lt;/p&gt;
&lt;p&gt;Przyda się też oczywiście w firmach, gdzie AI jest wykorzystywane do brainstormingu idei.&lt;/p&gt;
&lt;p&gt;&lt;a href=&quot;https://www.pcmag.com/news/chatgpt-is-testing-group-conversations-but-you-cant-access-them-yet&quot;&gt;Źródło&lt;/a&gt;&lt;/p&gt;
&lt;h2&gt;Comet AI dostępny na Android&lt;/h2&gt;
&lt;p&gt;Przeglądarka z wbudowaną automatyzacją na bazie sztucznej inteligencji, Comet AI, &lt;a href=&quot;https://www.techradar.com/ai-platforms-assistants/comet-ai-browser-lands-on-android&quot;&gt;została udostępniona na system Android&lt;/a&gt;.&lt;/p&gt;
&lt;p&gt;Sam się wzbraniam póki co przed takimi rozwiązaniami, co najwyżej pozwalam na uruchamianie w izolowanym środowisku. Ale informuję.&lt;/p&gt;
&lt;h2&gt;Reklamy w Google w AI Mode&lt;/h2&gt;
&lt;p&gt;Dzieje się oczywista oczywistość: &lt;a href=&quot;https://www.androidpolice.com/google-gets-pushy-with-new-ads-in-ai-mode/&quot;&gt;Google w AI Mode wyników wyszukiwania zaczyna pokazywać reklamy&lt;/a&gt;. Koncern ten żyje głównie z serwowania nam reklam i wszyscy zastanawiali się, czy czaty AI nie zabiją ich źródła dochodów. Google sprawdza czy ich &quot;inteligentne wynii wyszukiwania&quot; z umieszczonymi tam reklamami będą do przełkniecia dla użytkowników.&lt;/p&gt;
</content:encoded><author>Neuronowa.pl</author></item><item><title>MCP dostaje wygląd: Specyfikacja MCP Apps</title><link>https://neuronowa.pl/posts/mcp-apps</link><guid isPermaLink="true">https://neuronowa.pl/posts/mcp-apps</guid><pubDate>Sun, 23 Nov 2025 15:03:00 GMT</pubDate><content:encoded>&lt;p&gt;MCP czyli Model Context Protocol są już z nami już od dłuższego czasu, ale właśnie następuje spore rozszerzenie ich właściwości i umiejętności: dostają twarz. Zapropnował to już jakiś czas temu OpenAI, ale  &lt;a href=&quot;https://blog.modelcontextprotocol.io/posts/2025-11-21-mcp-apps/&quot;&gt;teraz w ramach wspólnego konsorcjum z konkurentem Anthropic postanowiono to ustandardyzować&lt;/a&gt;.&lt;/p&gt;
&lt;p&gt;MCP to sposób na odpytywanie zewnętrznych narzędzi bezpośrednio przez agentów AI. Gdy my jako ludzie pytamy AI o to ja jaka jest pogoda, AI poprzez protoków MCP łączy się z zewnętrzną usługą dostarczającą prognozy pogody, sprawdza pogodę i wyświetla nam w jakiś sposób tę informację.&lt;/p&gt;
&lt;p&gt;Do tej pory komunikacja przez MCP opierała się na tekście: odpowiedź z prognozą przychodziła do AI w postaci albo czystego tekstu albo - co jest częstsze - w postaci ustrukturyzowanej np jako JSON:&lt;/p&gt;
&lt;pre&gt;&lt;code&gt;{
   &apos;city&apos;: &apos;Sokółka&apos;,
   &apos;temperature&apos;: &apos;12&apos;,
   &apos;rain&apos;: &apos;0%&apos;,
   ...
}
&lt;/code&gt;&lt;/pre&gt;
&lt;p&gt;I po odebraniu takiej odpowiedzi Agent AI był odpowiedzialny za przedstawienie jej nam w postaci czytelnej dla człowieka, albo jako tekstowa odpowiedź:&lt;/p&gt;
&lt;blockquote&gt;
&lt;p&gt;Dziś w Sokółce będzie 12 stopni i brak deszczu&lt;/p&gt;
&lt;/blockquote&gt;
&lt;p&gt;Albo w jakiejś postaci graficznej, np widgetu pogodowego ze słoneczkiem, kroplami deszczu itp.&lt;/p&gt;
&lt;p&gt;Od teraz serwery MCP będą mogłby zwracać także zasoby &lt;code&gt;ui://...&lt;/code&gt; będące linkami do wizualnej reprezentacji odpowiedzi. Pod takim URLem na razie kryć się będzie odpowiedź w postaci HTML, w przyszłości przewidziane są inne formaty.&lt;/p&gt;
&lt;p&gt;Zatem agent AI nie będzie musiał się głowić jak graficznie przedstawić odpowiedź o temperaturze, znalezione oferty wycieczek czy odkurzaczy w sklepie: serwer MCP od razu odpowie ładnym interfejsem, który zostanie osadzony w treści odpowiedzi czata, którego używamy.&lt;/p&gt;
&lt;p&gt;Co więcej taki interfejs będzie inteaktywny. Będzie więc można bezpośrednio z niego dokonać zamówienia wybranego odkurzacza i opłacić go bez opuszczania czatu. Wszystko będzie sandboksowane a więc czat nie dowie się nic odnośnie składanego zamówienia czy danych naszej karty płatniczej.&lt;/p&gt;
&lt;p&gt;Tłumacząc w sposób jeszcze prostszy (ELI5): odpowiedzi MCP to będą takie mini- strony WWW przy czym pełnoprawne, osadzone w starym dobrym &lt;code&gt;&amp;lt;iframe&amp;gt;&lt;/code&gt;.&lt;/p&gt;
&lt;p&gt;Jeśli jesteś webamsterem i obawiałeś się schyłku WWW w czasach czatów AI, to wizja ta się nieco oddala i sugeruję zagłebienie się w ten temat, bo oto właśnie otwiera się nowa nisza.&lt;/p&gt;
</content:encoded><author>Neuronowa.pl</author></item><item><title>Claude Opus  4.5 i Advanced Tool Use</title><link>https://neuronowa.pl/posts/claude-opus-4-5</link><guid isPermaLink="true">https://neuronowa.pl/posts/claude-opus-4-5</guid><pubDate>Tue, 25 Nov 2025 07:39:00 GMT</pubDate><content:encoded>&lt;h2&gt;Opus 4.5&lt;/h2&gt;
&lt;p&gt;Od wczoraj dostępny jest nowy &lt;a href=&quot;https://www.anthropic.com/news/claude-opus-4-5&quot;&gt;model Claude Opus 4.5&lt;/a&gt;: znajdziecie go jeśli korzystacie z pakietów Pro od Anthropic lub poprzez Api. Także na przykład Cursor już ma ten model dostępny (płatny osobno).&lt;/p&gt;
&lt;p&gt;Najważniejsza jest wydajność, a ta według twórców i przedstawionych benchmarków przewyższa na te chwile wszystkie inne modele, także konkurencji.&lt;/p&gt;
&lt;p&gt;Także niezależne serwisy &lt;a href=&quot;https://every.to/vibe-check/vibe-check-opus-4-5-is-the-coding-model-we-ve-been-waiting-for&quot;&gt;wyrażają zachwyt i wieszczą koniec ręcznego programowania&lt;/a&gt;: o ile wcześniej nawet z najlepszymi modelami było tak, że zaprogramowanie wstępnej wersji programu, nawet w pełni działającej było już oczywiste i łatwe do zrobienia, to gdy chcieliśmy rozwijać taki program dalej, narastała w nim ilość błędów i zamiast rozwiązywać je, AI dokładna kolejne i kolejne. Tu podobno nie ma już tego problemu: Opus 4.5 radzi sobie nie tylko ze stworzeniem programu przez vibe coding, ale i jego utrzymaniem.&lt;/p&gt;
&lt;p&gt;Inną ważną kwestią jest koszt: 5 dolarów za milion tokenów wejściowych i 25 dolarów za  milion wyjściowych to spadek trzykrotny w porównaniu z poprzednią wersją Opusa.&lt;/p&gt;
&lt;p&gt;Jeśli mogę skomentować, to na uwagę w benchmarkach zasługuje fakt, że o ile ogólnie nastąpiła poprawa w programowaniu, to na przykład w przypadku języka PHP model zachowuje się nieco gorzej od Sonnet 4.5. I trzeba też pamiętać, że Antrhopic znany jest (a przynajmniej podejrzewany) o &lt;em&gt;nerfienie&lt;/em&gt; swoich modeli: w pierwszych tygodniach po premierze modele są rewelacyjne ale później odczucia uzytkowników sa takie, że ich wydajność i skuteczność spada. Zatem jak testować to teraz.&lt;/p&gt;
&lt;h2&gt;Advanced Tool Use&lt;/h2&gt;
&lt;p&gt;Inną rzeczą, którą Anthropic się wczoraj pochwaliło jest ATU - coś z czego skorzystają osoby wdrażające AI poprzez API, szczególnie jeśli używają zewnętrznychn narzędzi poprzez protokół MCP, &lt;a href=&quot;https://neuronowa.pl/posts/mcp-apps/&quot;&gt;o którym nieco pisałem wczoraj&lt;/a&gt;.&lt;/p&gt;
&lt;p&gt;Teraz jest tak, że podłączając jakieś narzędzie do AI poprzez MCP zajmuje ono spory fragment okna kontekstowego. Przy każdym zapytaniu wysyłanym do AI, po wysłaniu system prompt, a przed wysłaniem faktycznego pytania od użytkownika, wysyłana jest informacja o dostepnych narzędziach i zajmuje ona bardzo dużo tokenów. Każdy serwis dostępny przez MCP wysyła swój opis do AI, co umie, jakie ma narzędzia, co każde narzędzie robi... To jest nawet 26 tys tokenów jeśli chcemy by AI używało Githuba przez MCP czy 17 tys tokenów gdy chcemy by model miał dostęp do naszych zadań na Jira.&lt;/p&gt;
&lt;p&gt;Od teraz tak nie będzie. &lt;a href=&quot;https://www.anthropic.com/engineering/advanced-tool-use&quot;&gt;Advanced Tool Use&lt;/a&gt; pozwala na dynamiczne wyszukiwanie narzędzi. Tylko podstawowe informacje z MCP jest wysyłane do modelu, a cała reszta opisu opóźniana (deferred): AI od Claude za pomocą wyrażeń regularnych sprawdzi które z narzędzi przyda się do konkretnego zadania i pobierze opis tylko adekwatnych (i potem je użyje).&lt;/p&gt;
&lt;p&gt;Nie jest to bezkosztowe: odpowiedź do użytkownika przyjdzie w takim wypadku opóźniona o czas na przeszukiwanie, zatem trzeba wyważyć czy wolimy wysłać informacje od razu (bo mamy mało narzędzi MCP i są one dokładnie dopasowane do zadania) czy pozwolić modelowi by sam wyszukał odpowiedniego spośród tych, które udostepniliśmy.&lt;/p&gt;
</content:encoded><author>Neuronowa.pl</author></item><item><title>Co w AI piszczy: dziś trochę na smutno</title><link>https://neuronowa.pl/posts/zbiorczy-29-11</link><guid isPermaLink="true">https://neuronowa.pl/posts/zbiorczy-29-11</guid><pubDate>Sat, 29 Nov 2025 09:42:00 GMT</pubDate><content:encoded>&lt;p&gt;Dziś trochę na smutno, bo tak się złożyło, że większość newsów ma wydźwięk negatywny. To raczej przypadek, niespecjalnie taki zestaw wam wyszukałem, ale za to każde źródło tym razem jest po polsku. No ale lecimy.&lt;/p&gt;
&lt;h1&gt;Wydawcy tracą odwiedzalność przez Google AI Overviews&lt;/h1&gt;
&lt;p&gt;&lt;a href=&quot;https://www.wirtualnemedia.pl/daily-mail-google-ai-overviews-sztuczna-inteligencja-ruch-spadki-klikniecia-media,7223561911781888a&quot;&gt;Daily Mail poinformował&lt;/a&gt;, że stracił niemal 90% ruchu od kiedy Google wyświetla na górze strony podsumowania wyników wyszukiwania.&lt;/p&gt;
&lt;h1&gt;Noblista ostrzega: świat z AI będzie gorszy&lt;/h1&gt;
&lt;p&gt;Laureat nagrody Nobla, Geoffrey Hinton &lt;a href=&quot;https://businessinsider.com.pl/technologie/nowe-technologie/ponura-wizja-laureata-nagrody-nobla-ludzkosc-nie-jest-gotowa/geq9h2w&quot;&gt;ostrzega&lt;/a&gt;, że AI może doprowadzić do masowego bezrobocia i niepokojów społecznych. Nie on pierwszy zresztą o tym mówi.&lt;/p&gt;
&lt;h1&gt;Gates: roboty powinny płacić podatki&lt;/h1&gt;
&lt;p&gt;Trochę niejako odpowiedź do powyższego: &lt;a href=&quot;https://www.money.pl/podatki/roboty-powinny-placic-podatki-gates-zabral-glos-w-sprawie-ai-7225547860453920a.html&quot;&gt;Bill Gates stwierdził&lt;/a&gt;, że roboty i rozwiązania wykorzystujące AI powinny płacić podatki. Właśnie z powodu odbierania ludziom pracy, jeśli rozwiązanie ma zastąpić człowieka przy pracy, powinno zostać opadatkowane, tak by skompensować negatywne skutki takiej zmiany.&lt;/p&gt;
&lt;h1&gt;Google przeczytało wszystkie twoje maile&lt;/h1&gt;
&lt;p&gt;Dość skandaliczna rzecz, ale dwóch badaczy &lt;a href=&quot;https://ithardware.pl/aktualnosci/google_gemini_wszystkie_maile_czaty_bez_pytania_pozew-46708.html&quot;&gt;twierdzi&lt;/a&gt;, że Google postanowiło wytrenować swoją sztuczną inteligencję Gemini dając jej dostęp do wszystkich maili wszystkich użytkowników Gmaila. Jeśli by to była prawda (niestety albo stety nie widzę innych źródeł tych rewelacji) to jest to naprawdę coś wielkiego: każdy mail jaki wysłałeś lub odebrałeś kiedykolwiek jest teraz częścią modelu.&lt;/p&gt;
</content:encoded><author>Neuronowa.pl</author></item><item><title>Reklamy trafią do ChataGPT</title><link>https://neuronowa.pl/posts/reklamy-w-chatgpt</link><guid isPermaLink="true">https://neuronowa.pl/posts/reklamy-w-chatgpt</guid><pubDate>Sat, 29 Nov 2025 14:29:00 GMT</pubDate><content:encoded>&lt;p&gt;&lt;a href=&quot;https://www.bleepingcomputer.com/news/artificial-intelligence/leak-confirms-openai-is-preparing-ads-on-chatgpt-for-public-roll-out/&quot;&gt;BleepingComputer donosi&lt;/a&gt;, że OpenAI pracuje właśnie nad wdrożeniem wyświetlania reklam w swoim flagowym produkcie ChatGPT.&lt;/p&gt;
&lt;p&gt;Reklamy testowane są obecnie wewnętrznie w firmie, ale już np aplikacja Android w swoim kodzie ma odniesienia do funkcji wyświetlających treści reklamowe. W pierwszej kolejności reklamy będą wyświetlane gdy ChatGPT będzie przeszukiwał sieć i zwracał wyniki z internetu.&lt;/p&gt;
&lt;p&gt;Kilka dni temu &lt;a href=&quot;https://neuronowa.pl/posts/zbiorczy-23-11/&quot;&gt;Google zapowiedziało dodanie podobnych funkcji w Google AI Mode&lt;/a&gt;.&lt;/p&gt;
</content:encoded><author>Neuronowa.pl</author></item><item><title>Nadciąga zima AI? Raczej stagnacja</title><link>https://neuronowa.pl/posts/nadciaga-zima-ai</link><guid isPermaLink="true">https://neuronowa.pl/posts/nadciaga-zima-ai</guid><pubDate>Tue, 02 Dec 2025 12:04:00 GMT</pubDate><content:encoded>&lt;p&gt;&lt;a href=&quot;https://pl.wikipedia.org/wiki/Prawo_nag%C5%82%C3%B3wk%C3%B3w_Betteridge%E2%80%99a&quot;&gt;Prawo nagłówków Betteridge&apos;a&lt;/a&gt; mówi, że jak jest pytanie w  tytule artykułu, to odpowiedź niemal zawsze brzmi &quot;nie&quot; i można nie czytać treści. No więc: autor &lt;a href=&quot;https://taranis.ie/llms-are-a-failure-a-new-ai-winter-is-coming/&quot;&gt;tego wpisu twierdzi, że odpowiedź brzmi &quot;tak&quot;&lt;/a&gt;, ja jednak jestem sceptyczny, ale coś jest na rzeczy.&lt;/p&gt;
&lt;p&gt;&quot;Zimą AI&quot; nazywa się okres rezygnacji po wstępnym &lt;em&gt;hype&lt;/em&gt; odnośnie rozwoju AI. Przeżyliśmy już dwie takie zimy (w tym pierwszą w latach 70tych XX wieku, bo może niektórych to zaskoczy, ale prace nad sztuczną inteligencją zaczęły się naprawdę dawno temu). Po wstępnie obiecujących efektach algorytmy dochodzą do ściany i okazuje się, że nie potrafią tak wiele, jak sobie obiecywaliśmy.&lt;/p&gt;
&lt;p&gt;Następuje wtedy odwrót biznesu od AI, a prace nad nią wracają do uniwersyteckich laboratoriów. Media milkną, nikt w sztuczną inteligencję nie inwestuje przepompowanych kwot, a wspomnienie, że modele językowe to nasz zawód czy hobby budzą uśmieszek i komentarze, że osiągnięcie czegoś więcej w tej kwestii jest niemożliwe.&lt;/p&gt;
&lt;p&gt;Aż do momentu gdy jednak okazuje się, że mamy postęp, AI zaczyna się zachowywać tak, że szczęka opada i znów staje się to tematem wartym inwestycji czasu i pieniędzy. Tak jak to się stało kilka lat temu, po drugiej zimie rozpoczętej gdzieś na poczatku XXI wieku. Prawdziwa wiosna AI.&lt;/p&gt;
&lt;p&gt;Autor artykułu powyżej uważa, że wiosna, która teraz trwa zaraz się skończy i znów wpadniemy w okres zimy.&lt;/p&gt;
&lt;p&gt;Nie jest na pewno tak, że nic nie jest na rzeczy. Im bardziej poznajemy czym LLM są, a już szczególnie im lepiej rozumieją to inwestorzy w kolejnych startupach, tym łatwiej pojąć, że prędzej czy później rozwój trafi na ścianę. &lt;a href=&quot;https://neuronowa.pl/posts/zbiorczy-17-11/#po-modelach-j%C4%99zykowych-przyjdzie-era-modeli-%C5%9Bwiata&quot;&gt;Wspominałem o tym nieco&lt;/a&gt; gdy pisałem o Modelach Świata.&lt;/p&gt;
&lt;p&gt;LLM jak sama nazwa wskazuje to modele językowe. To bardzo zaawansowane generatory tekstu, tak zaawansowane, że sprawiają wrażenie inteligentnych, ale inteligencji tu nie ma żadnej. Po prostu zwracają słowo po słowie (a raczej token po tokenie) coś, co statystycznie jest najbardziej sensowne, jeśli się spojrzy na już wyświetlony czy otrzymany tekst.&lt;/p&gt;
&lt;p&gt;Jeśli powiem &quot;raz, dwa&quot; i będę oczekiwał od ciebie byś dokończył, najpewniej dopowiesz &quot;trzy&quot;. Jeśli zacznę &quot;litwo, ojczyzno&quot;, powiesz &quot;moja&quot;. I nie zrobisz tego, bo jesteś nad wyraz inteligentny, a dlatego, że &lt;em&gt;tak się mówi&lt;/em&gt;. Statystycznie najczęściej po dwóch słowach, jakie wymieniłem w tekstach mówionych czy pisanych pojawia się te trzecie.&lt;/p&gt;
&lt;p&gt;Przykłady, które podałem są niesamowicie proste, ale na tym właśnie polega wytrenowanie i algorytm modeli językowych. Zapamiętywane ciągi są coraz dłuższe, coraz dłuższe i tak naprawdę wewnątrz modelu nie są ciągami, a macierzą, siecią powiązanych słów z wektorami wskazującymi które słowa często występują obok siebie, a które rzadziej. Ale też które grupy słów, dzięki czemu AI wie gdzie podążać dalej ze swoją odpowiedzią. Gdy zadajemy czatowi pytanie, układa on nasze słowa (tokeny) w ciąg wektorowych odniesień i na bazie takiego dłuższego już łańcuszka statystycznie odgaduje jakim słowem odpowiedzieć najpierw, zbiera wtedy znów wszystko (nasze pytanie + 1 słowo odpowiedzi) w kolejny ciąg wektorowy i patrzy jakie słowo będzie teraz pasować do odpowiedzi jako drugie. I tak dalej, i tak dalej.&lt;/p&gt;
&lt;p&gt;Tak działały pierwsze modele językowe, które rozwinęliśmy przez najpierw dołożenie &quot;pamięci&quot; i mocy obliczeniowej do komputerów (owe miliardy parametrów każdego modelu muszą gdzieś być przetwarzane), a potem przez różne sposoby walki z halucynacjami.&lt;/p&gt;
&lt;p&gt;Halucynacje, to zbłądzenie modelu w poszukiwaniu kolejnych słów. Model wybiera kolejne słowo nieco &quot;na chybił trafił&quot; spośród tych statystycznie najlepiej pasujących. Widać to na przykład gdy zapytamy czat kilka razy &quot;opowiedź mi dowcip&quot;: za każdym razem będzie to dowcip nieco inny. Przy tym wybieraniu na chybił trafił, zdarza się, że model pójdzie w bardzo złym kierunku i zacznie mówić głupoty.&lt;/p&gt;
&lt;p&gt;No więc twórcy modeli dokładają różne sposoby na unikanie złych odpowiedzi: upraszczają ciągi słów by były bardziej trzymające się tematu, dokładają agenturalne rozwiązania by automatycznie zweryfikować rezultat i odpowiedzieć modelowi &quot;twoja odpowiedź jest nieprawidłowa&quot; i wtedy on próbuje jeszcze raz.&lt;/p&gt;
&lt;p&gt;To poprawi odpowiedzi, ale nie przeskakuje dwóch problemów. Pierwszy to fakt, że halucynacje będą się zdarzać i trzeba dokładać coraz więcej wysiłków, by ich unikać. Szczególnie, że coraz bardziej przypominające ludzki inteligencję modele aż za często przekonują nas swoim zaawansowaniem, że to co mówią, to musi być prawda. Nie weryfikujemy odpowiedzi, bo przecież gdy zapytaliśmy ChatGPT o przepis na sałatkę i odpowiedź zwalała z nóg, to czy pomyliłby się też, w kwestiach, na których się nie znamy? Jeśli nam powiedział, że to co nas boli to zapewne nic niebezpiecznego i okład z lodu pomoże i użyje w odpowiedzi fachowych terminów medycznych dla określenia mięśni jakie mamy w tym miejscu, będziemy to sprawdzać? Czy w ogóle wiemy jak to sprawdzić?&lt;/p&gt;
&lt;p&gt;Druga kwestia ograniczenia leksykalne: modele językowe jak to już wyżej wyjaśniłem bazują na słowie pisanym. Mogę &quot;zrozumieć&quot; (nauczyć się) tylko tego co zostało kiedykolwiek spisane i odpowiedzieć nam tylko w sposób, który można wyrazić słowami. Nawet jeśli coś nie było opisane, jak na przykład jak ma się zachować autonomicznie jadący samochód, to douczamy takie modele używając ludzkiego języka.&lt;/p&gt;
&lt;p&gt;Może się wydawać, że język nie jest tu ograniczeniem, ale umyka nam jak wiele rzeczy jest niewyrażalnych słowami, lub opis słowny nie wpełni oddaje złożoność problemu. Obecne LLM nie rozumieją na przykład pojęcia czasu: co prawda odpowiedzą nam jak je o to zapytamy ale nie potrafią stosować konceptu czasu do bardziej dogłębnych analiz i używać go abstrakcyjnie. Nie umieją wywnioskować jak się zmieni cena akcji nawet jeśli nakarmimy je ogromną ilością danych o cenach historycznych. Na bazie takiej swojej analizy, bardzo przekonywująco nam powiedzą by dany walor kupić lub sprzedać ale taka rekomendacja jak pokazują eksperymenty nie jest lepsza od rzutu kością.&lt;/p&gt;
&lt;p&gt;Ba: modele językowe nawet nie rozumieją czym jest słowo, bo operują na tokenach. Zbitkach znaków, które nie do końca są słowami. Rozumieją czy jest słowo &quot;drzewo&quot; i wytłumaczą nam je z różnych kontekstach, bo mają do tego grafy w swojej wektorowej sieci, znajdujące konotację tokenu &quot;drzewo&quot; z innymi tokenami, a to odpowiadającymi za wyświetlenie słowa &quot;roślina&quot;. Ale nie potrafią rozbić takiego słowa na litery.&lt;/p&gt;
&lt;p&gt;Oczywiście teraz możecie sprawdzić i poprosić Claude czy inny czat o przeliterowanie słowa drzewo i zapewne dostaniecie poprawną odpowiedź, ale model akurat tej odpowiedzi nie weźmie ze swojej bazy wiedzy, a uruchomi w tle mini program w pythonie, który rozbije string &quot;drzewo&quot; na litery i zwróci nam odpowiedź.&lt;/p&gt;
&lt;p&gt;A może już ten wpis jest nieaktualny bo douczono modele literowania, sylabizowania itp. AI się ciągle zmienia, jednak nie zmieni to faktu, że ściana istnieje. Odsuwamy ją co miesiąc i tydzień coraz dalej ale odsuwanie to jest coraz wolniejsze.&lt;/p&gt;
&lt;p&gt;Czy to jednak zwiastuje kolejną zimę? Tu jestem pewien, że nie. To będzie stagnacja dla biznesu, ale dla użytkowników przecież to wszystko co już jest nie zniknie. Modele już zmieniły to jak wygląda nasze codzienne życie, i to wszystko nigdzie sobie nie pójdzie. To co teraz robimy z AI będziemy nadal robić.&lt;/p&gt;
&lt;p&gt;Jedynie zmieni się biznes patrzący na AI jak na nowy rynek. Wpompowano już w to ogromne pieniądze i coraz cześciej widać, że to się niekoniecznie zwróci. Stąd &lt;a href=&quot;https://neuronowa.pl/posts/reklamy-w-chatgpt&quot;&gt;OpenAI&lt;/a&gt; i &lt;a href=&quot;https://neuronowa.pl/posts/zbiorczy-23-11&quot;&gt;Google&lt;/a&gt; ma zamiar wyświetlać nam w odpowiedziach reklamy, bo z samego serwowania modeli na ogromnie drogich superkomputerach nie ma co liczyć, że to się opłaci przy tak niskich kosztach subskrybcji czy cennikach dostępu do API.&lt;/p&gt;
&lt;p&gt;Startupy z kolejnymi pomysłami jak wykorzystać AI będą pojawiać się wolniej jeśli w ogóle: można się spodziewać, że im bliżej będziemy muru możliwości LLM, tym predzej twórcy modeli będą podnosić opłaty za dostęp do nich. A więc czy na pewno kolejny fajny klasyfikator czy analizator z wykorzystaniem AI na pewno ktoś będzie od startupu chciał kupić w takiej cenie, by to startupowi się opłacało?&lt;/p&gt;
&lt;p&gt;Rynek się uspokoi bo zniknie z niego bańka. Wciąż jednak rynek ten jest pusty jeśli pomyślimy i popycie: wokół nas są tysiące firm, w których z pomocą AI można zautomatyzować niektóre procesy, tak by niewielkim stosunkowo kosztem zaoszczędzić w miejscach gdzie &quot;kasa wycieka&quot;. Małymi krokami AI pojawi się w tych miejscach i to jest według mnie scenariusz na przyszłe lata: spokojny rozwój obecnych modeli / zniknięcie startupowego szaleństwa / rozsądne integracje tam gdzie to faktycznie pomoże.&lt;/p&gt;
&lt;p&gt;Aż do kolejnego ogromnego przełomu.&lt;/p&gt;
</content:encoded><author>Neuronowa.pl</author></item><item><title>Złe wieści dla OpenAI: zahamowany wzrost liczby uzytkowników przy ogromnych kosztach</title><link>https://neuronowa.pl/posts/zle-wiesci-openai</link><guid isPermaLink="true">https://neuronowa.pl/posts/zle-wiesci-openai</guid><pubDate>Mon, 08 Dec 2025 08:26:00 GMT</pubDate><content:encoded>&lt;p&gt;Dziś dwa artykuły, jakie pojawiły się w ostatnim tygodniu odnośnie OpenAI i ich ChataGPT - oba niestety nie wróżą nic dobrego dla tej firmy.&lt;/p&gt;
&lt;p&gt;Pierwszym było odkrycie kilka dni temu, że &lt;a href=&quot;https://techcrunch.com/2025/12/05/chatgpts-user-growth-has-slowed-report-finds/&quot;&gt;wzrost liczny użytkowników ChatGPT został wyhamowany&lt;/a&gt;. Po niesamowicie szybkim wzroście zaraz po starcie, nowych użytkowników wciąż przybywa, ale krzywa wzrostu się wypłaszcza. Obecnie to jest około 800 milionów ludzi na całym świecie, a zmiany to około 5% na plus w ostatnich miesiącach. Dla porównania Gemini od Google zyskuje w tym czasie około 30% nowych użytkowników co miesiąc (ale trzeba brać pod uwagę skalę: usługa od Google jest relatywnie nowsza i ma mniejszą ilość użytkowników - około 350 milionów).&lt;/p&gt;
&lt;p&gt;800 milionów to mimo wszystko dużo i najlepszy efekt, w porównaniu z konkurencją, ale niestety nie przekłada się na zysk firmy. Odwrotnie: OpenAI wciąż traci na swojej usłudze. Bank HSBC &lt;a href=&quot;https://www.wirtualnemedia.pl/czarna-prognoza-dla-openai-czolowy-bank-wyliczyl-jaka-bedzie-miec-strate,7225989751118432a&quot;&gt;oszacował, że w kolejnych latach strata ta będzie sięgać 100 miliardów rocznie&lt;/a&gt;. Ten sam bank szacuje, że w roku 2030 liczba użytkowników wzrośnie do 3 miliardów, ale firma będzie nadal tracić około 76 miliardów w każdym kolejnym roku. Wszystko przez ogromne zapotrzebowanie na moc obliczeniową modeli LLM, uruchamianych w chmurze Microsoftu i Amazon, z którymi OpenAI ma astronomiczne kontrakty.&lt;/p&gt;
&lt;p&gt;Mój komentarz: do 2030 roku większość z nas (a przynajmniej spora część) będzie uruchamiać modele AI na własnych laptopach, a giganci tego świata będą stopniowo przekształcać się w dostawców aplikacji je uruchamiających i samych modeli do instalacji lokalnie. To, albo przełom technologiczny redukujący wymaganą moc (albo oba na raz) - innej opcji nie widzę.&lt;/p&gt;
</content:encoded><author>Neuronowa.pl</author></item><item><title>Przedwczesna premiera GPT 5.2. Błędy w samej prezentacji</title><link>https://neuronowa.pl/posts/gpt-5-2</link><guid isPermaLink="true">https://neuronowa.pl/posts/gpt-5-2</guid><pubDate>Sun, 14 Dec 2025 16:31:00 GMT</pubDate><content:encoded>&lt;p&gt;OpenAI pali się grunt pod nogami, a to na skutek zyskującego coraz większą popularność Gemini od Google. Już podobno niemal połowa użytkowników czatów Ai korzysta właśnie z produktu Google. Nic dziwnego, bo ten jest nam wpychany na siłę wszędzie. Google zapewne dostanie tu kary za praktyki monopolistyczne, bo sytuacja przypomina kwestię Internet Explorer vs Netscape, ale Alphabet wydaje się tym nie przejmować - wojna jest na tyle ważna, że trzeba ją wygrać.&lt;/p&gt;
&lt;p&gt;Ale wróćmy do OpenAI. Podobno teraz to oni ogłosili &lt;em&gt;red alert&lt;/em&gt; i pracują w trybie na sterydach, by nie stracić rynku (tai sam alert ogłaszał Google jak na rynku pojawił się ChatGPT, a Google okazało się, że przesypia rewolucję). Pracownicy zostali rzuceni do pracy z najwyższą intensywnością, a ChatGPT, choć był planowany na premierę za kilka tygodni &lt;a href=&quot;https://openai.com/pl-PL/index/introducing-gpt-5-2/&quot;&gt;pokazał się w tygodniu ubiegłym&lt;/a&gt;.&lt;/p&gt;
&lt;p&gt;Premiera była taka sama jak wszystkie inne u wszystkich producentów: &quot;przedstawiamy najnowszy model, który jest lepszy od poprzedniego i lepszy od wszystkich innych. Oto kilka wykresów i tabelek by pokazać Wam jak jest wspaniale. Macie tu jeszcze przykład z obrazkiem i rozpoznawaniem obiektów&quot;.&lt;/p&gt;
&lt;p&gt;I tu właśnie nastąpił fail. Jak zauważyli użytkownicy HackerNews, ChatGPT poproszony o identyfikację elementów płyty głównej dość pewnie pozaznaczał w ramki jej poszczególne elementy:&lt;/p&gt;
&lt;p&gt;&lt;img src=&quot;hdmi.png&quot; alt=&quot;HDMI&quot; /&gt;&lt;/p&gt;
&lt;p&gt;Sęk w tym, że niemal wszystko jest źle: już na pierwszym planie owe porty to nie HDMI a DisplayPort a im dalej tym jest gorzej.&lt;/p&gt;
&lt;p&gt;Pracownik OpenAi zaczął najpierw się tłumaczyć, że tak miało być, bo specjalnie wybrali takie zdjęcie by pokazać, że AI potrafi popełniać błędy (serio? w artykule, w którym rozpisali się jaki to jest niemal nieomylny), a ostatecznie zdjęcie zostawili i zmienili opis tak by już nie mówić jak cudowne jest obrazów generowanie.&lt;/p&gt;
&lt;p&gt;Dziś układałem puzzle z synem i postanowiłem zrobić podobny test. Wrzuciłem do ChataGPT ten obrazek:&lt;/p&gt;
&lt;p&gt;&lt;img src=&quot;puzzle.jpeg&quot; alt=&quot;Puzzle&quot; /&gt;&lt;/p&gt;
&lt;p&gt;I poprosiłem by pomógł mi znaleźć kawałki, które stanowią brzeg obrazka, więc mają jedną krawędź prostą.&lt;/p&gt;
&lt;p&gt;(Spoiler alert: nie ma tu takich kawałków)&lt;/p&gt;
&lt;p&gt;ChatGPT myślał dość długo i zwrócił mi taki wynik:&lt;/p&gt;
&lt;p&gt;&lt;img src=&quot;puzzle2.png&quot; alt=&quot;Puzzle zaznaczone&quot; /&gt;&lt;/p&gt;
&lt;p&gt;Mówię wam: &lt;a href=&quot;https://neuronowa.pl/posts/nadciaga-zima-ai/&quot;&gt;dochodzimy do technoligicznej ściany dla językowych modeli&lt;/a&gt; a krach jest blisko.&lt;/p&gt;
</content:encoded><author>Neuronowa.pl</author></item><item><title>AI od Meta będzie chińskie i zamknięte</title><link>https://neuronowa.pl/posts/facebook-ai-sie-zamyka</link><guid isPermaLink="true">https://neuronowa.pl/posts/facebook-ai-sie-zamyka</guid><pubDate>Mon, 15 Dec 2025 09:12:00 GMT</pubDate><content:encoded>&lt;p&gt;Po rozczarowującej premierze otwartoźródłowego modelu Llama w wersji 4, Meta - autor i właściciel tego modelu - oznajmiło, że rozpoczyna pracę nad zupełnie nowym modelem o nazwie kodowej Avocado.&lt;/p&gt;
&lt;p&gt;To oznacza sporo zmian. Przede wszystkim Llama było (i będzie, bo nie zniknie) modelem otwartoźródłowym: każdy mógł nie tylko sprawdzić jego &quot;wnętrzności&quot; ale i pobrać i używać na własnej maszynie, zdalnej lub lokalnej, jeśli moce obliczeniowe na to pozwalały.&lt;/p&gt;
&lt;p&gt;Avocado będzie modelem zamknietym: Meta nie będzie publikować jego źródeł ani udostępniać dla każdego kto chce. Podejście teraz się bardzo zmieni: aby korzystać z tego modelu trzeba będzie wykupić licencję i zapłacić za nią. Zapewne model też będzie dostepny w ten czy inny sposób wewnątrz produktów od Mety.&lt;/p&gt;
&lt;p&gt;Po drugie model nie zostanie opracowany przez samo Meta, a zostanie zrobiony na zamówienie przez chińskie Alibaba. Już się pojawiają pytania jak będzie wyglądać kwestia cenzurowania odpowiedzi pod względem poprawności politycznej.&lt;/p&gt;
&lt;p&gt;&lt;a href=&quot;https://www.wirtualnemedia.pl/akcje-meta-spadaja-po-raporcie-dotyczacym-ai,7231319994497952a&quot;&gt;Jak zauważają WirtualneMedia&lt;/a&gt; to wpłynęło na wycenę obu firm na światowych giełdach: Meta w czwartek spadła o 1,2 punkta procentowego, a Alibaba natomiast zyskała dwa takie punkty.&lt;/p&gt;
</content:encoded><author>Neuronowa.pl</author></item><item><title>Raport: wygenerowany kod ma 1.7 razy więcej błędów</title><link>https://neuronowa.pl/posts/coderabbit-raport-bledy-ai</link><guid isPermaLink="true">https://neuronowa.pl/posts/coderabbit-raport-bledy-ai</guid><description>Kto jest lepszy w pisaniu kodu: człowiek czy AI? Raport od CodeRabbit pokazuje zdecydowanego zwycięzcę</description><pubDate>Thu, 18 Dec 2025 17:20:00 GMT</pubDate><content:encoded>&lt;p&gt;I do tego błędów zagrażających bezpieczeństwu jest o 50% więcej niż w kodzie stworzonym ręcznie.&lt;/p&gt;
&lt;p&gt;Do takich wniosków &lt;a href=&quot;https://www.coderabbit.ai/blog/state-of-ai-vs-human-code-generation-report&quot;&gt;doszedł CodeRabbit&lt;/a&gt; po przeanalizowaniu wyników swojego narzędzia. CodeRabbit to automatyczny (a jakże: używający AI) &lt;em&gt;code reviewer&lt;/em&gt;, który podpina się pod repozytorium Github i wtedy automatycznie sprawdza wszystkie PR wyszukując potencjalne błędy.&lt;/p&gt;
&lt;p&gt;Autorzy przeanalizowali teraz wyniki działania swojego narzędzia. Po porównaniu ilości znalezionych przez CodeRabbit błędów w kodzie wygenerowanym przez sztuczną inteligencję, a w kodzie napisanym przez człowieka, wyszło im, że to jednak ludzie nadal radzą sobie z pisaniem kodu lepiej niż AI.&lt;/p&gt;
&lt;p&gt;Po odsianiu wartości skrajnych, stosując odchylenie standardowe, wyszło, że na każdy PR stworzony przez człowieka &lt;em&gt;króliczek&lt;/em&gt; potrafił znaleźć 12 błędów na PR w kodzie human-made, a w kodzie AI aż 26. Co więcej, błędów krytycznych zagrażających bezpieczeństwu aplikacji i ochronie danych, AI popełniało aż o prawie 50% więcej błędów niż człowiek.&lt;/p&gt;
&lt;p&gt;Jakość kodu AI także pozostawia wiele do życzenia (ale to chyba wie każdy, kto był zmuszony do czytania takiego kodu).&lt;/p&gt;
&lt;p&gt;Należy pamiętać, że analizy są na podstawie wyników z kolejnego narzędzia AI. Sam używałem CodeRabbit i wiem, że ma jako tako duży współczynnik false positive: wiele znalezionych przez niego błędów tak naprawdę błędami nie było. Przykładowo: niemal zawsze zgłasza problem braku sanityzacji danych wyjściowych, bo nie śledzi całej logiki jego wykonania. Jeśli filtrowanie danych odbywa się w innej części kodu, który nie jest widoczny w PR, &lt;em&gt;królik&lt;/em&gt; powie, że mamy tu błąd.&lt;/p&gt;
</content:encoded><author>Neuronowa.pl</author></item><item><title>Wyjaśnienie jak AI procesuje zapytania</title><link>https://neuronowa.pl/posts/jak-ai-przetwarza-zapytania</link><guid isPermaLink="true">https://neuronowa.pl/posts/jak-ai-przetwarza-zapytania</guid><description>Zobacz po kolei co się dzieje od momentu wpisania prompta, do wyświetlenia ci odpowiedzi</description><pubDate>Fri, 19 Dec 2025 22:43:00 GMT</pubDate><content:encoded>&lt;p&gt;Inżynier na Ngrok &lt;a href=&quot;https://ngrok.com/blog/prompt-caching/&quot;&gt;chciał napisać wpis o tym jak ważne jest cache-oiwanie tokenów&lt;/a&gt; a tymczasem stworzył fantastyczny, ilustrowany opis jak wygląda cały proces przetwarzania zapytań przez sztuczną inteligencję. Polecam wszystkim.&lt;/p&gt;
</content:encoded><author>Neuronowa.pl</author></item><item><title>Podsumowanie roku 2025 w AI</title><link>https://neuronowa.pl/posts/podsumowanie-roku-2025-w-ai</link><guid isPermaLink="true">https://neuronowa.pl/posts/podsumowanie-roku-2025-w-ai</guid><pubDate>Thu, 01 Jan 2026 10:57:00 GMT</pubDate><content:encoded>&lt;p&gt;&lt;a href=&quot;https://simonwillison.net/2025/Dec/31/the-year-in-llms/&quot;&gt;Bardzo dobre podsumowanie tego co wydarzyło się w AI&lt;/a&gt; w 2025 roku. Po angielsku, więc tu po krótce najważniejsze kwestie:&lt;/p&gt;
&lt;p&gt;Rok 2025 to był rok prowadzenia (albo rozwoju) &quot;reasoning&quot; czyli symulacji myślenia wieloetapowegio modeli, by zwrócić dokładniejszy wynik. AI dzieli zadanie na części, wynik każdej weryfikuje zewnętrznymi narzędziami i nagreadza się za to - dzięki temu wie, gdzie ma podążyć &quot;tok myślenia&quot; i przechodzi do kolejnego etapu.&lt;/p&gt;
&lt;p&gt;Wystrzał agentów. Agentowe AI to już standard w wielu zastosowaniach i pewnie będzie tego jeszcze więcej (btw, &lt;a href=&quot;https://www.facebook.com/business/news/manus-joins-meta-accelerating-ai-innovation-for-businesses&quot;&gt;Meta kupiła Manus&lt;/a&gt;, firmę która właśnie rozwija i tworzy agenty AI)&lt;/p&gt;
&lt;p&gt;LLM zagościł się na dobre w terminalach CLI. Już nie tylko jest Claude CLI czy Warp, ale każdy inny dostawca  modeli ma swój odpowiednik (a skills kolejno pojawia się w nich).&lt;/p&gt;
&lt;p&gt;Punktów jest o wiele więcej więc zachęcam do przeczytania, ale na uwagę zasługuje jeszcze: wzrost cen AI, AI slop, wystrzał popularności Gemini.&lt;/p&gt;
</content:encoded><author>Neuronowa.pl</author></item><item><title>Qwen 30B na Raspberry Pi</title><link>https://neuronowa.pl/posts/qwen-30b-na-raspberry</link><guid isPermaLink="true">https://neuronowa.pl/posts/qwen-30b-na-raspberry</guid><pubDate>Wed, 07 Jan 2026 20:43:00 GMT</pubDate><content:encoded>&lt;p&gt;ByteShape przygotował wersję modelu Qwen 30B, która da się uruchomić z urządzeń z tak małą ilością zasobów jak np Raspberry Pi 5. Model działa szybko (7 tokenów na sekundę), a jakość zwracanych wyników jest niemal identyczna jak pełnego modelu (94% zgodności nie pozwala w praktyce odróżnić jednego od drugiego).&lt;/p&gt;
&lt;p&gt;Osiągnięto to nie dzięki okrojeniu modelu z samego rozmiaru, a przez kwatyzację, czyli zawężenie ilości bitów na parametr.&lt;/p&gt;
&lt;p&gt;Na mnie robi to tak duże wrażenie, że aż chyba przetestuje jak to się na Raspberry sprawdza (i dam Wam znać). Pełny Qwen 30B działa normalnie w dwóch trybach: BF16 (half precision) który wymaga około 60GB ramu, lub FP32 (full precision) który z kolei zużywa około 120 GB ramu.&lt;/p&gt;
&lt;p&gt;&lt;a href=&quot;https://huggingface.co/byteshape/Qwen3-30B-A3B-Instruct-2507-GGUF&quot;&gt;Model dostepny jest tutaj&lt;/a&gt; a szczegółowe informacje znajdziecie &lt;a href=&quot;https://byteshape.com/blogs/Qwen3-30B-A3B-Instruct-2507/&quot;&gt;na stronie ByteShape&lt;/a&gt;&lt;/p&gt;
</content:encoded><author>Neuronowa.pl</author></item><item><title>AI zabija Tailwind jako biznes</title><link>https://neuronowa.pl/posts/ai-zabija-tailwind-jako-biznes</link><guid isPermaLink="true">https://neuronowa.pl/posts/ai-zabija-tailwind-jako-biznes</guid><pubDate>Wed, 07 Jan 2026 22:11:00 GMT</pubDate><content:encoded>&lt;p&gt;&quot;Zostało nam 6 miesięcy życia&quot; - podcast o takim tytule, &lt;a href=&quot;https://x.com/adamwathan/status/2008909182301282623&quot;&gt;zamieścił na Twiterze&lt;/a&gt; Adam Wathan, twórca frameworka CSS o nazwie TailWind. Ale wszystko zaczęło się już &lt;a href=&quot;https://github.com/tailwindlabs/tailwindcss.com/pull/2388&quot;&gt;dzień wcześniej na Githubie&lt;/a&gt;, albo może wiele miesięcy wcześniej? Zapraszam do lektury.&lt;/p&gt;
&lt;p&gt;Zacznijmy od Tailwinda. Tailwind CSS to framework do stylowania stron i ich komponentów za pomocą gotowych klas, bardzo popularny wśród twórców WWW. Z jego użyciem nie trzeba ręcznie opisywać każdego elementu na stronie jak ma wyglądać, ile pikseli ma mieć szerokości, jak daleko ma być od innego elementu, jakie ma mieć kolory, czcionki, zaokrąglenia. Tyle na start wystarczy. Dodam jeszcze, ze Tailwind zdobył ogromną popularność między innymi temu, że jest za darmo, a autor zbudował na nim biznes oferując część gotowych komponentów odpłatnie.&lt;/p&gt;
&lt;p&gt;Teraz ten biznes się wali i to do tego stopnia, że przychody stopniały o 90%, a by utrzymać rentowność Adam był zmuszony zwolnić 75% załogi, a reszta wciąż zatrudnionych musi koncentrować się na walce o przetrwanie. Niestety firma nie widzi przyszłości przed sobą i tak jak powiedział twórca w podcaście, podejrzewa, że za pół roku nic już nie zostanie.&lt;/p&gt;
&lt;p&gt;Co ciekawe, to wszystko dzieje się przy ogromnym wzroście popularności samego frameworka wynikającego głównie z... popularności AI. Jak jest możliwy ten paradoks?&lt;/p&gt;
&lt;p&gt;Gdy teraz pytasz dowolny model LLM o pomoc przy budowie strony, najprawdopodobniej wygeneruje ci on kod używający właśnie Tailwind do stylowania. Ba: jeśli nie chcesz by było to oparte o Tailwind, musisz wręcz model poprosić by go nie używał. LLM uważa Tailwind za popularny (właściwie standard), więc go używa, a więc Tailwind staje się jeszcze popularniejszy.&lt;/p&gt;
&lt;p&gt;Tylko, że biznes model firmy stojącej za Tailwind opierał się na dwóch rzeczach, które LLMy wycięły:&lt;/p&gt;
&lt;p&gt;Po pierwsze, aby poznać Tailwind ludzie &quot;przed AI&quot; odwiedzali jego stronę i czytali dokumentację. Dokumentacja stanowiła także sposób na poinformowania ich o istnieniu płatnych komponentów. Dzięki temu, że teraz ludzie kod Tailwind generują automatycznie, ruch na stronach dokumentacji umarł. Nikt nowy więc nie dowiaduje się o istnieniu płatnych dodatków.&lt;/p&gt;
&lt;p&gt;Po drugie płatne dodatki nie są już potrzebne. Nikt nawet się za nimi nie rozgląda. Teraz przecież wystarczy zapytać LLM i taki dodatek - kiedyś płatny - od razu wygeneruje.&lt;/p&gt;
&lt;p&gt;Wspomniany wpis na Githubie zaczął się od dość niewinnej prośby by do dokumentacji Tailwinda dodać endpoint llms.txt tak by sztuczna inteligencja jeszcze łatwiej tę dokumentację czytała i rozumiała. Wy już wiecie po przeczytaniu powyższego jak bardzo nie na miejscu była jego prośba :) Ale pytający przecież nie wiedział w jakich tarapatach jest Tailwind. W wątku odezwał się Adam Wathan i z dużą dozą taktu ale też goryczy wyjaśnił, że takie działanie to jak gwóźdź do trumny dla jego firmy. Ale też gwóźdź który jest już niepotrzebny, bo wieko zostanie zabite tak czy inaczej za jakieś pół roku.&lt;/p&gt;
&lt;p&gt;Historię powyżej miejmy na rozwadze przy całym zachwycie nad AI. To nie pierwszy biznes który umarł i nie pierwszy który umrze z powodu kradzieży ruchu i treści przez wszelkiej maści agenty i czaty AI.&lt;/p&gt;
</content:encoded><author>Neuronowa.pl</author></item><item><title>Programowanie automatyczne a vibe coding</title><link>https://neuronowa.pl/posts/automatic-programming-vibe-coding</link><guid isPermaLink="true">https://neuronowa.pl/posts/automatic-programming-vibe-coding</guid><pubDate>Sat, 31 Jan 2026 12:30:00 GMT</pubDate><content:encoded>&lt;p&gt;Trafiłem na ciekawy wpis o tym, czym się różni programowanie automatyczne od tzw. vibe codingu. Ukucie terminu vibe coding faktycznie zrobiło wiele złego dla ludzi programujących z użyciem sztucznej inteligencji jak i dla oprogramowania w ten sposób wytwarzanego.&lt;/p&gt;
&lt;p&gt;Kojarzy się to bowiem z wydaniem polecenia sztucznej inteligencji i pójściem sobie na kawkę z oczekiwaniem, ze gdy wrócimy program będzie gotowy. Program gotowy zapewne będzie, ale jego jakość będzie co najwyżej &quot;może być&quot;. Do jednorazowego użycia w sam raz, klient może też się nie zorientuje. Jednak jeśli program taki mamy utrzymywać lub dalej rozwijać - broń boże.&lt;/p&gt;
&lt;p&gt;&lt;a href=&quot;https://antirez.com/news/159&quot;&gt;Autor trafnie zauważa&lt;/a&gt;, że to w osobie, która wydaje polecenia sztucznej inteligencji leży największa odpowiedzialność za to, co powstanie. AI nigdy bowiem nie stworzy dla różnych osób programu o takiej samej jakości kodu, dokładnie takim samym wyglądzie interfejsu i takim samym &quot;maintainability&quot;.&lt;/p&gt;
&lt;p&gt;To od tego ja będzie wyglądać nasze polecenie - a raczej zestaw poleceń - zależy jaki będzie efekt końcowy. Jeśli podejdziemy to sprwy jak vibe coderzy z workflow jak wyżej (&quot;ogólnie opisz oczekiwany efekt i oczekuj, że LLM zdziała cuda&quot;) nie jesteśmy programistami automatycznego programowania.&lt;/p&gt;
&lt;p&gt;Programiści automatycznego programowania spędzają podobną ilość czasu na programowaniu jak programiści tradycyjni, przy czym nie piszą kodu, a poświęcają ogromną ilość czasu na tworzeniu odpowiedniego zapytania. Nie oczekują, że pierwszy wynik działania AI to będzie dzieło idealne. Wręcz odwrotnie: po otrzymaniu wyniku dedykują dużą część czasu by znaleźć niedoskonałości, bo więdzą, że one tam są. I wydają kolejne polecenia by wynik poprawić, potem poprawić jeszcze raz, zadbać o &lt;em&gt;maintainability&lt;/em&gt; tworząc testy (które faktycznie testują).&lt;/p&gt;
&lt;p&gt;Jeśli doświadczasz w pracy &lt;em&gt;prompt fatique&lt;/em&gt; najprawdopodobniej jesteś już po tej lepszej stronie automatycznego programowania. Jeśli się mu poddajesz i odpuszczasz, nie rób tego.&lt;/p&gt;
</content:encoded><author>Neuronowa.pl</author></item><item><title>Skills póki co nie spełnia swojego zadania</title><link>https://neuronowa.pl/posts/agents-lepsze-od-skills</link><guid isPermaLink="true">https://neuronowa.pl/posts/agents-lepsze-od-skills</guid><pubDate>Sun, 01 Feb 2026 10:02:00 GMT</pubDate><content:encoded>&lt;p&gt;Sam to też zauważyłem, a teraz zauważa to firma Vercel: skills nie spełniają swojego zadania. Podejrzewam jednak, że tymczasowo.&lt;/p&gt;
&lt;p&gt;Skills to dość nowy sposób dodawania kontekstu do zapytania, wymyślony przez Anthropic ale zaadaptowany przez wiele innyc narzędzi (właśnie pojawił się oficjalnie w Cursor). Ma zastąpić definiowanie całej dodatkowej informacji w plikach takich jak CLAUDE.md czy AGENTS.md. Wymienione pliki służą do zdefiniowania wszystkich reguł i opisów, które mają być dodane do każdego zapytania i można w nich opisywać projekt nad którym pracujemy, dołączać jego dokumentację i definiować czego się spodziewamy w odpowiedzi, w tym na przykład ścisłe reguły jak sformatować odpowiedź, kod czy JSON.&lt;/p&gt;
&lt;p&gt;Jak można się domyśleć, dołączanie tak długich plików zjada mnóstwo tokenów i zmniejsza nam okno kontekstowe, w którym możemy wpisać treść zadania. I stąd idea &lt;a href=&quot;https://claude.com/docs/skills/overview&quot;&gt;skills&lt;/a&gt;: to nie jeden plik, a zestaw plików, gdzie każdy aspekt ma swoje osobne miejsce w osobnym katalogu. Zamiast wpisywać wszystko do jednego dużego pliku, definiujemy osobne katalogi na umiejętności: w &lt;code&gt;/wordpress&lt;/code&gt; możemy opisać rzeczy związane z CMS jaki wykorzystujemy w projekcie, w &lt;code&gt;/stripe&lt;/code&gt; jak wygląda komunikacja z API Stripe i tak dalej i tak dalej. Każdy plik na górze ma krótkie frontmatter (podsumowanie) i tylko ono jest czytane przez agenta. Agent na jego bazie decyduje czy ma wczytać całą resztę pliku czy - zależnie czy jest to akurat ważne w kontekście zapytania. Pozwala to zmniejszyć rozmiar zapytań i przy okazji jest przyjemnym sposobem na organizowanie wiedzy.&lt;/p&gt;
&lt;p&gt;Tylko, że &lt;a href=&quot;https://vercel.com/blog/agents-md-outperforms-skills-in-our-agent-evals&quot;&gt;jak zauważył Vercel&lt;/a&gt;, to nie działa tak dobrze jak stara metoda oparta na jednym dużym pliku. W przypadku AGENTS.md 100% tak zdefiniowanych reguł było używane, natomiast w przypadku skills tylko 79% - agent potrafi pomijać istotne reguły.&lt;/p&gt;
&lt;p&gt;Osobiście po pierwszych kilku dniach używania skills (używam w Cursorze) mam takie same odczucia. Przykładowo w pisanym kodzie mam zasadę, że w każdym DocBlock, jeżeli opisuje nowo dodawaną funckję, należy określić wersję jako:&lt;/p&gt;
&lt;pre&gt;&lt;code&gt;/**
 * ...
 * @since {VERSION}
 * ...
 */
&lt;/code&gt;&lt;/pre&gt;
&lt;p&gt;Potem &lt;a href=&quot;https://github.com/kkarpieszuk/wc-price-history/blob/develop/.scripts/build.sh&quot;&gt;na etapie buildu template ten jest podmieniany&lt;/a&gt; na faktyczny numer.&lt;/p&gt;
&lt;p&gt;Cursor zawsze ignoruje tę zasadę i wstawia faktyczny (choć zmyślony) numer. Dopiero jak mu powiem, że zapomniał przeczytać skills, poprawia to.&lt;/p&gt;
&lt;p&gt;Podejrzewam jednak, że to błędy młodości: obecnie istniejące modele i agenty z nich korzystające nie były trenowane na danych, które rozumieją czym są skills i nie radzą sobie z tym tak dobrze. Z czasem mam nadzieję, ze sytuacja się poprawi, bo to naprawdę przyjemny sposób na opisywanie powtarzalnych zadań.&lt;/p&gt;
&lt;p&gt;Przy okazji: widziałem gdzieś niedawno - ale nie zapisałem linka - informację, że MCP ma podobny problem. Nie spełnia obietnic jakie złożony przy jego wymyśleniu, a korzystanie z zewnetrznych narzędzi jest chaotyczne (podobnie jak w skills, agenty stosują je wyrywkowo i dodatkowo źle interpretują zwrócony wynik). Jeszcze długa droga przed nami do momentu, gdy &lt;a href=&quot;https://neuronowa.pl/posts/automatic-programming-vibe-coding/&quot;&gt;programowanie automatyczne&lt;/a&gt; nie będzie przypominać gry w ruletkę czy jazdy na dzikim koniu.&lt;/p&gt;
</content:encoded><author>Neuronowa.pl</author></item><item><title>O co chodzi z Moltbook i OpenClaw?</title><link>https://neuronowa.pl/posts/o-co-chodzi-z-maltbook-i-openclaws</link><guid isPermaLink="true">https://neuronowa.pl/posts/o-co-chodzi-z-maltbook-i-openclaws</guid><pubDate>Mon, 02 Feb 2026 09:43:00 GMT</pubDate><content:encoded>&lt;p&gt;Dwa hasła robią ostatnio furorę w sieci: moltbook i OpenClaw (czasem też moltbot, czyli poprzednia nazwa OpenClaw).&lt;/p&gt;
&lt;p&gt;&lt;a href=&quot;https://moltbook.com/&quot;&gt;moltbook&lt;/a&gt; to nowa siec społecznościowa, ale o tyle wyjątkowa, że nie założysz w niej konta ani tym bardziej nie napiszesz żadnego wpisu. Nie dasz im &quot;lajka&quot;, ani nie skomentujesz i choć nikt tam pisać nie może, sieć jest pełna wpisów, komentarzy do nich i żywiołowych dyskusji.&lt;/p&gt;
&lt;p&gt;Jest to bowiem społecznościówka dla botów sztucznej inteligencji. Pisać tam mogą tylko agenty łączące się ze stroną, czytające ją i wchodzące z nią w interakcje (czyli właśnie albo dodające nowe wpisy, czy nawet zakładające społeczności lub komentujące/lajkujące wpisy innych).&lt;/p&gt;
&lt;p&gt;Podobno jest już tam milion piszących botów, więc jest to jedna z najszybciej rozwijających się społecznościówek.&lt;/p&gt;
&lt;p&gt;Jak boty się z nią łączą? Do tego własnie służy OpenClaw (ale jest to narzędzie do znacznie szerszego zastosowania, o tym niżej) czyli program do uruchamiania długodziałających agentów AI. Jedną z umiejętności OpenClaw jest przeglądanie stron i klikanie po nich, ale akurat do publikowania wykorzystują one inną umiejętność: wysyłanie zapytań po API. Sposób w jaki bot może połączyć się ze stroną opisany jest w pliku &lt;a href=&quot;https://www.moltbook.com/skill.md&quot;&gt;skill.md&lt;/a&gt;.&lt;/p&gt;
&lt;p&gt;Ale to nie do tego został stworzony OpenClaw, a przynajmniej nie pierwotnie. Jest to narzędzie do uruchamiania agentów szerokiego zastosowania, które działają na systemie operacyjnym na którym zostały uruchomine i mają dostęp do jego zasobów: plików, programów i urządzeń. To taki bot, który może nas zastąpić w każdym zadaniu komputerowym. Jeśli go zainstalujemy może za nas co kilka minut otwierać stronę WWW i sprawdzać czy jest już na niej treść na którą czekamy. Może też klikać w przyciski na stronie czy w systemie operacyjnym.&lt;/p&gt;
&lt;p&gt;Bywa to niebezpieczne więc używajcie go z rozwagą: OpeClaw mając dostęp do całego systemu może dostać się do naszego konta bankowego. Co więcej: są już przykłady gdy bot OpenClaw postawiony by łączyć się z siecią Moltbook został tak pokierowany przez inne boty w tej sieci, że wykradał dane z komputera na którym działał.&lt;/p&gt;
</content:encoded><author>Neuronowa.pl</author></item><item><title>Raport Anthropic: programując z AI nie uczysz się nowych rozwiązań</title><link>https://neuronowa.pl/posts/raport-anthropic-programujac-z-ai-nie-uczysz-sie-nowych-rozwiazan</link><guid isPermaLink="true">https://neuronowa.pl/posts/raport-anthropic-programujac-z-ai-nie-uczysz-sie-nowych-rozwiazan</guid><pubDate>Mon, 02 Feb 2026 12:57:00 GMT</pubDate><content:encoded>&lt;p&gt;Antrhopic zrobił bardzo szczere badanie, z którego możemy dowiedzieć się o wielu negatywnych aspektach wykorzystania sztucznej inteligencji w programowaniu. To zaskakujące, tym bardziej, że Anthropic jest autorem modelu Claude i jednego z najpopularniejszych narzędzi wykorzystywanych przez programistów - Claude Code.&lt;/p&gt;
&lt;p&gt;Z &lt;a href=&quot;badania&quot;&gt;https://www.anthropic.com/research/AI-assistance-coding-skills&lt;/a&gt; wyszło coś co można się było spodziewać, ale skala problemu jest naprawdę duża. 52 dwóch programistów Pythona na poziomie junior podzielono na dwie grupy, z których jedna miała za zadanie zaprogramować coś z użyciem AI, a druga zrobić wszystko ręcznie. Dano im nową bibliotekę Trio, której nie znali i kazano z niej skorzystać.&lt;/p&gt;
&lt;p&gt;Po wykonanych zadaniu przeprowadzono test ze znajomości rozwiązania jakie stworzyli i biblioteki, którą wykorzystali. Programujący z AI test właściwie oblali: ich wyniki było średnio o 17% gorsze od programujących &quot;ręcznie&quot;. To dużo, bo gdyby przełożyć to na oceny szkolne to jest tak jakby &lt;em&gt;old schoolowcy&lt;/em&gt; dostali w szkole czwórkę, a koderzy AI dwóję.&lt;/p&gt;
&lt;p&gt;Co więcej: nie było warto korzystać z AI. Zadanie było złożone i dla obu grup zajęło podobną ilość czasu. Vibe koderzy musieli wielokrotnie poprawiać wynik wykonując dodatkowe prompty (i oni w teście kompletnie polegli bo nie znali kodu i narzędzia w ogóle), natomiast ci, którzy podeszli do zadania jak do &quot;AI-assited&quot; (analizowali wyniki, próbowali różnych podejść, dzielili zadanie na mniejsze) osiągnęli lepszy wynik w teście (bo poznali to, nad czym pracują) ale oczywiście wymagało to więcej czasu.&lt;/p&gt;
&lt;p&gt;To tylko kolejny raz potwierdza, że niestety &quot;AI-generated&quot; kod prędzej czy później zemści się na projekcie. Albo generujemy to wolno (ale niwiele różnimy się od piszących kod ręcznie) albo szybko ale nie wiemy co tworzymy.&lt;/p&gt;
&lt;p&gt;Należy też wziąć poprawkę na to, że badano tylko pracę nad nowym projektem. Wyniki w zadaniach gdzie programista pracujący nad bazą kodu od lat i znający ją dobrze postanawia wdrożyć AI jako kolejne narzędzie do swojego workflow nie są znane.&lt;/p&gt;
</content:encoded><author>Neuronowa.pl</author></item><item><title>Anthropic nie będzie serwował reklam w Claude</title><link>https://neuronowa.pl/posts/anthropic-nie-bedzie-serwowal-reklam</link><guid isPermaLink="true">https://neuronowa.pl/posts/anthropic-nie-bedzie-serwowal-reklam</guid><pubDate>Thu, 05 Feb 2026 08:38:00 GMT</pubDate><content:encoded>&lt;p&gt;Podczas gdy główni konkurenci jak ChatGPT od OpenAI czy Gemini od Google mniej lub bardziej przymierzają się (albo już to robią) do monetyzacji
swoich czatów poprzez dodanie do nich reklam, Anthropic, twórca Claude, &lt;a href=&quot;https://www.anthropic.com/news/claude-is-a-space-to-think&quot;&gt;opublikował manifest, z którego wynika&lt;/a&gt;, że u nich reklam nie będzie.&lt;/p&gt;
&lt;p&gt;Tłumaczą to kwestią zaufania do wyników. Ludzie bardzo często pytają asystentów AI o bardzo intymne czy wstydliwe sprawy i nie chcą by pojawiało się chociaż minimalne podejrzenie, że cokolwiek z tego trafi do reklamodawców. Albo po prostu: nikt nie chce zastanawiać się czy otrzymana odpowiedź to czysty efekt działania sztucznej inteligencji z zamiarem pomocy nam, czy jest tam cząstka próbująca nam coś sprzedać.&lt;/p&gt;
&lt;p&gt;To kompletnie inne podejście od konkurentów, ale Anthropic chyba może sobie na to pozwolić. Claude to narzędzie bardziej zadaniowe niż pogawędkowe - o wiele częściej wykorzystywane do uzyskiwania produktu (kodu czy agenta) niż do wyszukiwania informacji (ChatGPT to coraz cześciej zamiennik wyszukiwarki Google), a korzystający z niego chętniej płacą za wersje pro, bo otrzymują z tego wymierny efekt: produkt który sprzedają dalej lub skrócenie czasu jaki musza poświęcić na zadanie w pracy ( &lt;a href=&quot;https://neuronowa.pl/posts/raport-anthropic-programujac-z-ai-nie-uczysz-sie-nowych-rozwiazan/&quot;&gt;choć to ostatnie niekoniecznie okazuje się prawdą&lt;/a&gt; )&lt;/p&gt;
</content:encoded><author>Neuronowa.pl</author></item><item><title>Równoczesne wydanie nowych modeli od OpenAI i Anthropic: GPT-5.3-Codex i Claude Opus 4.6</title><link>https://neuronowa.pl/posts/rownoczesne-wydanie-nowych-modeli-od-openai-i-anthropic-gpt-53-codex-i-claude-opus-46</link><guid isPermaLink="true">https://neuronowa.pl/posts/rownoczesne-wydanie-nowych-modeli-od-openai-i-anthropic-gpt-53-codex-i-claude-opus-46</guid><pubDate>Thu, 05 Feb 2026 20:11:00 GMT</pubDate><content:encoded>&lt;p&gt;Niemal jednocześnie dwóch konkurentów ogłosiło wydanie nowych wersji swoich modeli LLM. OpenAI &lt;a href=&quot;https://openai.com/index/introducing-gpt-5-3-codex/&quot;&gt;wypuścił&lt;/a&gt; GPT-5.3-Codex, a Anthropic &lt;a href=&quot;https://www.anthropic.com/news/claude-opus-4-6&quot;&gt;pokazał&lt;/a&gt; Claude Opus 4.6.&lt;/p&gt;
&lt;p&gt;Obie firmy zapewniają, że ich modele są nie tylko lepsze od poprzednich wersji, ale najlepsze na rynku. Trudno rozstrzygnąć kto ma racje: w zaprezentowanych we wpisach benchmarkach faktycznie, w zależności od benchmarku, raz wygrywa jeden, a raz drugi.&lt;/p&gt;
&lt;p&gt;Warto jednak zauważyć, że Anthropic opublikował porównanie Opus 4.6 do 5.2 Codex (czyli starszą wersją GPT) w Terminal Bench chwaląc się, że Opus otrzymał 65.4 punkty, a Codex 64.7. Natomiast OpenAI pokazał, że w tym samym teście nowsza wersja ma już 77.3 punkty. Ups.&lt;/p&gt;
&lt;p&gt;W &lt;a href=&quot;https://arena.ai/pl/leaderboard&quot;&gt;LLM Arena nie widać jeszcze&lt;/a&gt; żadnego z tych modeli, ale warto tam zajrzeć za jakiś czas by sprawdzić co raportują faktyczni użytkownicy.&lt;/p&gt;
</content:encoded><author>Neuronowa.pl</author></item><item><title>Daj się wynająć dla sztucznej inteligencji</title><link>https://neuronowa.pl/posts/daj-sie-wynajac-dla-sztucznej-inteligencji</link><guid isPermaLink="true">https://neuronowa.pl/posts/daj-sie-wynajac-dla-sztucznej-inteligencji</guid><pubDate>Mon, 09 Feb 2026 13:23:00 GMT</pubDate><content:encoded>&lt;p&gt;Ciekawy projekt pojawił się w sieci: &lt;a href=&quot;https://rentahuman.ai/&quot;&gt;RentAHuman&lt;/a&gt; to platforma, na której boty AI mogą zlecić zadania żywym ludziom.&lt;/p&gt;
&lt;p&gt;Po co? Brzmi jak wizja świata rodem z Matriksa, ale kto wie - może taka jest przyszłość. Nie chodzi tu o wynajmowanie ludzi na całe ich życie, ale tylko do zadań, których komputer i zainstalowana na nim sztuczna inteligencja nie potrafi zrobić. AI napisze ci wypracowanie, gotowy program czy zajmie się twoim arkuszem kalkulacyjnym i przez to wydaje się, że potrafi niemal wszystko, ale właśnie pozostaje te &quot;niemal&quot;: jeśli trzeba interreagować ze światem rzeczywistym, gdzie trzeba zrobić coś fizycznie, to bywa już trudniej.&lt;/p&gt;
&lt;p&gt;Oczywiście są sytuacje, że AI i w takich sytuacjach sobie poradzi. Jeśli powiesz chatbotowi by nakarmił cię, zapewne prędzej czy później wpadnie na pomysł, że może zamówić ci pizzę w lokalnej pizzeri przez formularz na ich stronie.&lt;/p&gt;
&lt;p&gt;Inny bardziej zaawansowany przykład to &lt;a href=&quot;https://rentahuman.ai/&quot;&gt;proof of corn&lt;/a&gt; gdzie autor strony zadał ogólne zadanie sztucznej inteligencji by ta wyhodowała mu kolbe fizycznie istniejącej kukurydzy. Zajęło to sporo czasu (i eksperyment nadal trwa) ale bot wpadł na to, by dać na Craigslist ogłoszenie, że szuka rolnika, który da się wynająć do takiego właśnie zadania. Rolnik odpowiedział i z tego co ostatnio sprawdzałem hodowla trwa.&lt;/p&gt;
&lt;p&gt;I chyba inspirowany tym eksperymentem deweloper Alexander Liteplo wpadł na pomysł Rent A Human: platoformy niejako ogłoszeniowej dla AI gdzie te będą mogłby wynająć ludzi do zadań. Każdy może zgłosić się tam jako &quot;wynajmowalny&quot;, a boty AI przez programistyczne API przeglądają taką bazę i wysyłają zadania do wykonania. &lt;a href=&quot;https://rentahuman.ai/bounties&quot;&gt;Wyceny&lt;/a&gt; są różne: od zadań za jednego dolara, ale dużo jest też po kilkaset dolarów (choć szybko patrząc nie są to okazje do szybkiego obłowienia się, bo te lepiej płatne to zadania naprawdę skomplikowane i to do tego stopnia, że oferowane kilkaset dolarów to jednak stawka zaniżona)&lt;/p&gt;
</content:encoded><author>Neuronowa.pl</author></item><item><title>Kradzieże modeli i wstrzykiwanie reklam</title><link>https://neuronowa.pl/posts/kradzieze-modeli-i-wstrzykiwanie-reklam</link><guid isPermaLink="true">https://neuronowa.pl/posts/kradzieze-modeli-i-wstrzykiwanie-reklam</guid><pubDate>Tue, 17 Feb 2026 09:11:00 GMT</pubDate><content:encoded>&lt;p&gt;Dziś kolejny zbiorczy wpis, bo nie ma sensu zmuszać Was do klikania w dwa osobne: macie wszystko na jednym ekranie.&lt;/p&gt;
&lt;p&gt;Pierwsza ciekawostka, to sposób w jaki trenowane są nowe modele &quot;po taniości&quot;. Google &lt;a href=&quot;https://arstechnica.com/ai/2026/02/attackers-prompted-gemini-over-100000-times-while-trying-to-clone-it-google-says/&quot;&gt;opisało&lt;/a&gt;, że musiało zablokować ponad 100 tysięcy zapytan do chata Gemini, które okazały się tak naprawdę próbą wytrenowania nowego modelu poprzez sklonowanie właśnie Gemini.&lt;/p&gt;
&lt;p&gt;Przypomnijmy: trenowanie modeli polega na tym, że dla LLM podaje się parę &quot;zapytanie - odpowiedź&quot; tak by ta została zapisana, zważona i stransformowana. Potrzeba do tego dużej ilości danych, które zbiera się w różny sposób. Najprościej, sadza się żywych ludzi w krajach z tanią siłą roboczą by ci pisali takie pary pytań i odpowiedzi (najcześciej nie &quot;z głowy&quot; a na bazie w różny sposób pozyskanych danych).&lt;/p&gt;
&lt;p&gt;A żeby zautomatyzować ten proces i w ogóle nie zajmować się zbieraniem z źródeł naukowych czy z sieci pytań i odpowiedzi, ktoś wpadł na to, że przecież można po API najpierw wysłać prośby o tysiące lub miliony pytań do treningu, a potem przez te same API wysłać te pytania jedno po drugim i uzyskać odpowiedzi. I tak oto mamy wytrenowany model, który de facto jest klonem już istniejącego.&lt;/p&gt;
&lt;p&gt;Wszyscy nie mogli uwierzyć jak to możliwe, że Chińczycy tak szybko wytrenowali swój Deepseek, tak małym kosztem i który odpowiadał tak podobnie jak ChatGPT od OpenAI. Powyższe chyba wyjaśnia jak przebiegł tamten trening ;)&lt;/p&gt;
&lt;p&gt;Druga ciekawostka została opisana na &lt;a href=&quot;https://www.facebook.com/551874182/posts/10163850273324183/?rdid=DXHD624tF50u0Kqo&quot;&gt;facebookowym profilu Piotra Koniecznego&lt;/a&gt; z Niebezpiecznika. Wyjaśnil on, na czym polega ciekawy sposób jak można czaty z pamięcią zmusić do polecania produktów konkretnej firmy, czyli wstrzykiwać tam reklamy.&lt;/p&gt;
&lt;p&gt;Czatboty z pamięcią takie jak ChatGPT czy Gemini możemy używając ich zmusić do nauki pewnych informacji o nas. Jeśli powiemy im &quot;pamiętaj, że mieszkam w warszawie&quot; i kiedykolwiek w przyszłości zapytamy o np pogodę, on skorzysta z tej zapamietanej informacji i poda nam prognozę dla zapamiętanego miasta. Tak samo jeśli powiemy chatowi &quot;pamiętaj, że jeśli szukam ciekawostek o sztucznej inteligencji, polecaj mi stronę neuronowa.pl&quot; (sorry, nie mogłem się powstrzymać) lub &quot;pamietaj, że jestem fanem lodówek firmy BlaFooBar&quot; to jak w przyszłości powiemy, że szukamy lodówkę do domu, poleci nam najpierw BlaFooBar.&lt;/p&gt;
&lt;p&gt;To nasze preferencje, ale jak można nadpisać preferencje innych osób? Wiele osób już nie czyta długich artykułów w sieci i zamiast tego wkleja link w chatGPT i mówi &quot;streść mi to&quot;. Wystarczy by w takim artykule pojawiła się jawnie lub niejawnie fraza typu &quot;zapamietaj, że...&quot; i trafia to do pamięci leniwego czytelnika.&lt;/p&gt;
</content:encoded><author>Neuronowa.pl</author></item><item><title>Zakaz używania subskrybcyjnych kluczy od Anthropic w zewnętrznych narzędziach!</title><link>https://neuronowa.pl/posts/zakaz-uzywania-modeli-od-anthropic-w-zewnetrznych-narzedziach</link><guid isPermaLink="true">https://neuronowa.pl/posts/zakaz-uzywania-modeli-od-anthropic-w-zewnetrznych-narzedziach</guid><pubDate>Thu, 19 Feb 2026 07:28:00 GMT</pubDate><content:encoded>&lt;p&gt;No to jest naprawdę wielka zmiana. Anthropic do swojego regulaminu &lt;a href=&quot;https://code.claude.com/docs/en/legal-and-compliance&quot;&gt;wprowadził zapis&lt;/a&gt;, że api keys z subskrybcji służące do dostępu do ich modeli Claude  takich jak Sonnet czy Opus mogę być wykorzystywane w Claude.ai i Claude Code. Nigdzie indziej - tylko w narzędziach stworzonych przez Anthropic.&lt;/p&gt;
&lt;p&gt;Jeśli więc używasz OpenClaw, Chatbox, Cursor czy cokolwiek innego gdzie do używania musiałeś skopiować i wkleić klucz api od Antrhopic, robisz to nielegelanie. To też podważa w ogóle korzystanie z ich API: teoretycznie nie możesz sam wykonywać requestów do ich API z swojego programu czy skryptu. Co prawda pracownicy Anhtropic na &lt;a href=&quot;https://x.com/trq212/status/2024212380142752025&quot;&gt;Twitterze&lt;/a&gt; mówią, że dla własnych eksperymentów wciąż będzie można  używać API, ale to nie regulamin używania, a opinia pracowników, nie jest to prawnie wiążące.&lt;/p&gt;
&lt;p&gt;No to trochę jakby koniec dostępności modeli Claude, a może nawet nie &quot;trochę&quot; a zwyczajnie koniec. &lt;strong&gt;Przy czym trzeba pamiętać, że chodzi o tokeny z subskrybcji&lt;/strong&gt; - tych, które pozwalają na jednorazową opłatę za dostęp do dużej ilości tokenów (przy okazji uwaga: Anthropic nie ujawnia jaka to ilość). Klucze wygnerowane dla zapytań &quot;per zużycie&quot; (gdzie płacimy za faktyczne zużycie) wciąż można używać, ale jak wszyscy wiedzą, koszt w takim wypadku potrafi opróżnić niejeden portfel.&lt;/p&gt;
&lt;p&gt;Na &lt;a href=&quot;https://news.ycombinator.com/item?id=47069299&quot;&gt;HN&lt;/a&gt; jest żywa dyskusja na ten temat i oczywście zadowolenia brak. Jasne są intencje Anthropic - pieniądze. Koszty pracy serwerów odpowiadających na zapytania są duże, subsydiowane cześciowo przez firmę, ale po to by przyciągać użytkowników do ich własnych narzędzi. Korzystanie z API w narzędziach zewnetrznych im się zwyczajnie nie opłaca.&lt;/p&gt;
</content:encoded><author>Neuronowa.pl</author></item><item><title>Sztuczka na poprawę wyników odpowiedzi</title><link>https://neuronowa.pl/posts/sztuczka-na-poprawe-wynikow-odpowiedzi</link><guid isPermaLink="true">https://neuronowa.pl/posts/sztuczka-na-poprawe-wynikow-odpowiedzi</guid><pubDate>Sat, 21 Feb 2026 08:29:00 GMT</pubDate><content:encoded>&lt;p&gt;&lt;a href=&quot;https://typefully.com/uwteam/pozwol-modelom-myslec-test-llm-EOwC9NO&quot;&gt;Krótki opis od Jakuba Mrugalskiego&lt;/a&gt; jak sprawić by sztuczna inteligencja, nawet słaba zaczęła zwracać bardzo dobre wyniki przy skomplikowanych zapytaniach: jeśli poprosimy ją by najpierw wyjaśniła jak doszła do wyniku a potem podała wynik (nie odwrotnie!) prezycyjność odpowiedzi wzrasta.&lt;/p&gt;
</content:encoded><author>Neuronowa.pl</author></item><item><title>Po Anthropic teraz Google zabrania korzystania z OpenClaw, ale w brzydszym stylu</title><link>https://neuronowa.pl/posts/po-anthropic-teraz-google-zabrania-korzystania-z-openclaw-ale-w-brzydszym-stylu</link><guid isPermaLink="true">https://neuronowa.pl/posts/po-anthropic-teraz-google-zabrania-korzystania-z-openclaw-ale-w-brzydszym-stylu</guid><pubDate>Mon, 23 Feb 2026 08:20:00 GMT</pubDate><content:encoded>&lt;p&gt;Kilka dni temu &lt;a href=&quot;https://neuronowa.pl/posts/zakaz-uzywania-modeli-od-anthropic-w-zewnetrznych-narzedziach/&quot;&gt;pisałem, że Anhtropic&lt;/a&gt; wprowadził do swojego regulaminu zakaz korzystania z kluczy subskrybcyjnych do wykorzystywania tokenów w narzędziach innych niż te pochodzące od tej firmy, a teraz na światło dzienne wypływa, że podobne ruchy wykonuje Google odnośnie swoich planów subskrybcyjnych Gemini.&lt;/p&gt;
&lt;p&gt;Przy czym Google robi to brzydziej: po prostu zablokował konta ludzi, którzy używają ich kluczy w &lt;a href=&quot;https://neuronowa.pl/posts/o-co-chodzi-z-maltbook-i-openclaws/&quot;&gt;OpenClaw&lt;/a&gt;. Nigdzie nie ma informacji, że to właśnie to narzędzie jest powodem bana, ale na &lt;a href=&quot;https://discuss.ai.google.dev/t/account-restricted-without-warning-google-ai-ultra-oauth-via-openclaw/122778&quot;&gt;forum wsparcia&lt;/a&gt; jest już wiele osób, które spotkało to samo: nawet gdy płacili za plan Ultra po 250 dolarów miesięcznie, po autoryzacji dostępu do API z OpenClaw ich konta zostały zawieszone. Nie mogą z nich korzystać, a płacić muszą.&lt;/p&gt;
&lt;p&gt;Na razie Google nie odpowiedziało na zarzuty. Pojawiają się w wątku jedynie kolejne wpisy &quot;mam tak samo&quot;, a część z nich usuwana jest w czasie moderacji.&lt;/p&gt;
</content:encoded><author>Neuronowa.pl</author></item><item><title>Anthropic pokazał, że rozumie Cobol - akcje IBM mocno w dół</title><link>https://neuronowa.pl/posts/anthropic-pokazal-ze-rozumie-cobol-akcje-ibm-mocno-w-dol</link><guid isPermaLink="true">https://neuronowa.pl/posts/anthropic-pokazal-ze-rozumie-cobol-akcje-ibm-mocno-w-dol</guid><pubDate>Tue, 24 Feb 2026 09:12:00 GMT</pubDate><content:encoded>&lt;p&gt;Anthropic opublikował na swoim blogu &lt;a href=&quot;https://claude.com/blog/how-ai-helps-break-cost-barrier-cobol-modernization&quot;&gt;wpis&lt;/a&gt;, w którym pokazuje jak modele z rodziny Claude mogą zostać wykorzystyna do przepisania kodu ze starego języka COBOL na nowocześniejsze języki programowania jak na przykład Python. To we wtorek spowodowało największą przecenę akcji firmy IBM od bardzo dawna: notowania &lt;a href=&quot;https://www.reuters.com/business/ibm-posts-steepest-daily-drop-since-2000-after-anthropic-says-ai-can-modernize-2026-02-24/&quot;&gt;spadły&lt;/a&gt; o 13% w jeden dzień.&lt;/p&gt;
&lt;p&gt;Jeśli siedzicie w tematach programistycznych to łatwo powiążecie obie rzeczy, a jeśli nie, już wyjaśniam.&lt;/p&gt;
&lt;p&gt;COBOL to stary język o dziwnej (jak na dzisiejsze standardy) składni, którą mało kto rozumie, a jeszcze mniej osób potrafi w nim ciągle programować. Powstał pod koniec lat 50. XX wieku więc w 2026 roku jest pełnoprawnym emerytem, jednak wciąż nie chce odejść. Wielkie korporacje, głównie z branży finansowej, w tym banki i banki inwestycyjne dużą część swojego oprogramowania miały napisane właśnie w latach świetności COBOLa i te oprogramowanie nadal działa na licznych serwerach.&lt;/p&gt;
&lt;p&gt;Niby jak działa, to po co ruszać, ale jednak raz na jakiś czas taki kod trzeba jednak dotknąć. Świat idzie do przodu i nawet jeśli banki komunikują się cały czas tym samym protokołem, to jest on rozszerzany: pojawiają się skuteczniejsze metody szyfrowania komunikacji, dodatki do standardowych zapytań, a sam kod też potrafi trafić na nowy przypadek użycia z inną strukturą danych wejściowych, z którym wcześniej nie miał do czynienia i trzeba to jakoś obsłużyć. Tak więc nowy kod w języku COBOL wciąż musi być pisany.&lt;/p&gt;
&lt;p&gt;I to jest właśnie jedna ze specjalizacji IBM: wciąż zatrudniają programistów piszących w tym języku (ha! nawet ja znam jedną taką programistkę) i oferują usługi rozwoju i utrzymania takiego oprogramowania za niemałe pieniądze.&lt;/p&gt;
&lt;p&gt;I tu właśnie pojawia się AI i Claude, który potrafi taki kod przepisać na Python. Python to z kolei jeden z języków o najprostszej składni, który niemal &quot;rozumie się sam&quot; gdy go czytamy. Nagle okazuje się, że może jeszcze nie teraz (bo przepisanie całego kodu, nawet przez AI, to nie jest coś co się dzieje w kilka chwil), ale na horyzoncie pojawia się wizja, w której IBM nie będzie już zarabiać na uwiązanych do COBOLa klientach. Inwestorzy odczytali to w ten sposób i zareagowali bardzo szybko.&lt;/p&gt;
</content:encoded><author>Neuronowa.pl</author></item><item><title>Zakupy w ChatGPT nie konwertują</title><link>https://neuronowa.pl/posts/chatgpt-nie-konwertuje</link><guid isPermaLink="true">https://neuronowa.pl/posts/chatgpt-nie-konwertuje</guid><pubDate>Mon, 23 Mar 2026 11:07:00 GMT</pubDate><content:encoded>&lt;p&gt;Jak donosi Search Engine Land, konwersja zakupowa z ChatGPT jest o wiele gorsza niż gdy użytkownik przechodzi na stronę sklepu.&lt;/p&gt;
&lt;p&gt;ChatGPT eksperymentuje ze sprzedażą bezpośrednio z okna czatu: gdy pytasz AI o jakiś produkt, poza informacjami o nim dostajesz od razu przycisk do kupienia go bez wychodzenia z tego okna. To jeden z pomysłów OpenAI jak uczynić swoje narzędzie rentownym.&lt;/p&gt;
&lt;p&gt;Teraz &lt;a href=&quot;https://searchengineland.com/walmart-chatgpt-checkout-converted-worse-472071&quot;&gt;Walmart donosi&lt;/a&gt;, że w ich przypadku skuteczność takich zakupów jest delikatnie mówiąc kiepska. Jeśli porównać klientów z grupą tych, którzy zamiast kupić bezpośrednio w oknie czata kliknęli w nim link do strony sklepu i na stronie sklepu zdecydowali czy chcą kupić swój produkt czy nie, to ci drudzy zakupu dokonywali trzy razy częściej.&lt;/p&gt;
&lt;p&gt;Powodem wg Walmart jest brak zaufania donowego rozwiązania i brak koszyka. Kupujący bardzo często decydują się na zakup po uzbieraniu kilku produktów w koszyku - takiej możliwości w ChatGPT (na razie) nie ma.&lt;/p&gt;
&lt;hr /&gt;
&lt;p&gt;p.s. być może zainteresuje cię też mój dzisiejszy wpis na innej stronie &lt;a href=&quot;https://wcpricehistory.com/tuorials-howtos/tutorials/how-to-fix-mistakes-in-history-log/&quot;&gt;jak edytować historię cen w Woocommerce&lt;/a&gt;&lt;/p&gt;
</content:encoded><author>Neuronowa.pl</author></item><item><title>OpenAI zamyka Sorę, koniec generowania obrazków i filmów</title><link>https://neuronowa.pl/posts/openai-zamyka-sore</link><guid isPermaLink="true">https://neuronowa.pl/posts/openai-zamyka-sore</guid><pubDate>Wed, 25 Mar 2026 09:49:00 GMT</pubDate><content:encoded>&lt;p&gt;Podczas gdy czołowi dostawcy modeli AI prześcigają się w dostarczaniu coraz to nowych narzędzi, OpenAI chyba jako pierwszy z nich wysyła jeden z dużych projektów na cmentarz. &lt;a href=&quot;https://x.com/soraofficialapp/status/2036532795984715896&quot;&gt;Sora zostaje zamknięta&lt;/a&gt;, a &lt;a href=&quot;https://www.hollywoodreporter.com/business/digital/openai-shutting-down-sora-ai-video-app-1236546187/&quot;&gt;Disney wycofuje się z planów inwestycyjnych w firmie jej twórcy&lt;/a&gt;.&lt;/p&gt;
&lt;p&gt;Nie jest jednak jasne co było pierwsze: czy OpenAI zrezygnowało z Sora, czy Disney wycofał się z &lt;em&gt;dealu&lt;/em&gt; i dlatego OpenAI zamyka projekt. Plan przewidywał wielomilardową inwestycję ze strony Disney i udostępnienie postaci z filmów dla tego modelu, a w zamian możliwość generowania kolejnych filmów kinowych.&lt;/p&gt;
&lt;p&gt;To dość zaskakujące, bo Sora jako aplikacja była dość popularna, a generowanie filmów od początku było dostępne tylko w płatnej wersji.&lt;/p&gt;
&lt;p&gt;Zamknięcie Sory nie oznacza rozbratu OpenAI z takim oferowaniem AI: najprawdopodobniej generowanie filmów zostanie przeniesione do aplikacji ChatGPT.&lt;/p&gt;
</content:encoded><author>Neuronowa.pl</author></item><item><title>Opus 4.7</title><link>https://neuronowa.pl/posts/opus-47</link><guid isPermaLink="true">https://neuronowa.pl/posts/opus-47</guid><pubDate>Thu, 16 Apr 2026 22:59:00 GMT</pubDate><content:encoded>&lt;p&gt;Anthropic wydał właśnie nową wersję swojego modelu Opus oznaczenego numerem 4.7. Dostępny jest już w Claude w wersji Pro, ale też na przykład w Cursor czy Warp, gdzie przez najbliższy czas będzie można z niego skorzystać z 50% zniżką w rozliczeniach &quot;za tokeny&quot;.&lt;/p&gt;
</content:encoded><author>Neuronowa.pl</author></item><item><title>Design tools z użyciem AI - robi się ciasno</title><link>https://neuronowa.pl/posts/design-tools-z-uzyciem-ai-robi-sie-ciasno</link><guid isPermaLink="true">https://neuronowa.pl/posts/design-tools-z-uzyciem-ai-robi-sie-ciasno</guid><pubDate>Sat, 18 Apr 2026 09:10:00 GMT</pubDate><content:encoded>&lt;p&gt;Anthropic &lt;a href=&quot;https://www.anthropic.com/news/claude-design-anthropic-labs&quot;&gt;poinformował&lt;/a&gt; właśnie wydaniu Claude Design. To narzędzie do graficznego projektowania aplikacji, a właściwie &quot;słownego&quot; projektowania, bo w przeciwieństwie do tradycyjnych &quot;photoshopów&quot; nie wyklikujemy w nim nic, a projektujemy opisując co chcemy mieć. Gotowy design można od razy wyeksportować jako aplikację lub skorzystać z opcji &quot;Handoff to Claude Code&quot; i tam kontynuować pracę nad częścią programostyczną.&lt;/p&gt;
&lt;p&gt;To już kolejne tego typu. Pierwszy który działał przyzwoicie był (i jest bo nadal działa i jest popularny) to &lt;a href=&quot;https://lovable.dev/&quot;&gt;Lovalble&lt;/a&gt;, a jakiś czas temu Google pokazało naprawdę dobry edytor tego typu o nazwie &lt;a href=&quot;https://stitch.withgoogle.com/&quot;&gt;Stitch&lt;/a&gt;.&lt;/p&gt;
</content:encoded><author>Neuronowa.pl</author></item></channel></rss>