Skip to main content

Rozwój sztucznej inteligencji nie zwalnia. Przełomowe aktualizacje, etyczne dylematy i rosnąca obecność AI w codziennym życiu pokazują, że stoimy w obliczu zmian porównywalnych z rewolucją przemysłową. W sierpniu 2025 roku na pierwszy plan wysuwają się innowacje edukacyjne, zaawansowane agenty, niepokojące porównania do projektu Manhattan i próby walki o umysły badaczy.

image 8
.

Praktyczne nowości w sztucznej inteligencji. Sierpień 2025.

Nowa funkcja w Chat GPT: tryb nauki.

OpenAI uruchomiło nowy tryb nauki w ChatGPT, który ma ambicję stać się cyfrowym korepetytorem z prawdziwego zdarzenia. W odróżnieniu od klasycznego trybu pytanie–odpowiedź, nowa funkcja prowadzi użytkownika przez materiał krok po kroku: zadaje pytania pomocnicze, dopasowuje poziom trudności, zachęca do refleksji. Twórcy współpracowali z pedagogami, stosując zasady takie jak metakognicja czy zarządzanie obciążeniem poznawczym.

Celem nie jest szybkie udzielanie odpowiedzi, lecz uczenie się myślenia. To reakcja na rosnący problem oszustw edukacyjnych – tylko w Wielkiej Brytanii w zeszłym roku zanotowano prawie 7000 przypadków nadużyć związanych z AI. OpenAI przyznaje, że nie rozwiąże to całkowicie problemu; niezbędna jest też zmiana podejścia do oceniania w edukacji.

Studentka Maggie Wang przyznała, że po trzygodzinnej sesji z tym trybem wreszcie zrozumiała sinusoidalne kodowanie pozycyjne – temat, który wcześniej był dla niej zupełnie niezrozumiały. Porównała go do niestrudzonego, cierpliwego nauczyciela.

Ai news tryb nauczyciela w chat gpt
.

Nowy tryb agenta w Chat GPT

Nowy tryb Agentów w ChatGPT to znaczący krok w stronę realnej autonomii sztucznej inteligencji. OpenAI udostępniło tę funkcję w lipcu 2025 roku użytkownikom planów Pro, Plus i Team. W praktyce oznacza to, że ChatGPT nie tylko odpowiada na pytania, ale potrafi samodzielnie realizować złożone zadania – od przeglądania internetu i wypełniania formularzy, po przygotowywanie prezentacji i analizę danych. Tryb Agent nie jest osobnym modelem, lecz rozszerzeniem istniejących modeli (takich jak GPT‑4o), które zyskują dostęp do narzędzi, przeglądarki i wirtualnego komputera. Całość działa w czasie rzeczywistym i umożliwia użytkownikowi śledzenie postępów na ekranie.

image 1
.

Działanie tego trybu przypomina pracę wirtualnego asystenta. Użytkownik zleca zadanie w naturalnym języku, może to być np. „zaplanuj podróż do Lizbony i znajdź trzy hotele z oceną powyżej 8” – a Agent przechodzi do działania: otwiera strony, analizuje dane, porównuje opcje, a następnie prezentuje rezultat, nierzadko w formie pliku czy tabeli. Jeśli zadanie wymaga decyzji lub działania, które może mieć konsekwencje (np. dokonania zakupu, wysłania maila), Agent wstrzymuje się i prosi użytkownika o potwierdzenie. Można go w każdej chwili zatrzymać, przejąć kontrolę lub zmodyfikować instrukcję.

Funkcja Agentów integruje się także z popularnymi usługami, takimi jak Gmail, Google Drive czy GitHub, co umożliwia tworzenie dokumentów, analizowanie arkuszy kalkulacyjnych lub zarządzanie projektami bezpośrednio z poziomu ChatGPT. Możliwości są szerokie – można zautomatyzować codzienne czynności, tworzyć spersonalizowane raporty, harmonogramy, a nawet listy zakupów. W testach agent potrafił np. przygotować plan posiłków na tydzień, wygenerować listę zakupów, porównać oferty sklepów i przedstawić wszystko w przejrzystej tabeli.

Najprostsze zastosowanie: Webscraping, i zbieranie informacji z wielu użytecznych miejsc. Z tworzeniem ładnych raportów, tryb agenta nie radzi sobie najlepiej.

image 2
.

Tworzenie spójnych postaci z jednego zdjęcia

Startup Ideogram zaprezentował narzędzie, które potrafi wygenerować spójne postacie na podstawie jednego zdjęcia – zachowując twarz, fryzurę, kąt padania światła. Przydatne m.in. dla twórców komiksów, gier czy awatarów. To rozwiązanie zbliża nas do epoki hiperpersonalizowanej grafiki.

Microsoft Edge z Copilotem

Nowy tryb Copilot w przeglądarce Edge analizuje wszystkie otwarte karty, tworzy podsumowania i porównania. Umożliwia sterowanie głosem i posiada ujednolicony pasek interakcji. To kolejny krok w kierunku „przeglądarki asystującej” – czyli miejsca pracy wspomaganego przez AI.

Google AI Search i mobilna kamera na żywo

Google rozwija swój AI Search, umożliwiając przesyłanie obrazów i wkrótce plików PDF. Nowe narzędzie Canvas pozwala planować zadania w sposób wizualny. Na urządzeniach mobilnych dostępne jest wyszukiwanie na żywo przy pomocy kamery – to realny krok ku rozpoznawaniu otaczającego świata w czasie rzeczywistym.

Nvidia Llama Neotron Super 1.5 – lider w benchmarkach

Nowa wersja modelu Llama Neotron Super 1.5 osiąga rekordowe wyniki w benchmarkach z matematyki, rozumowania, kodowania i czatu. Co ważne – działa wydajnie na pojedynczym GPU Nvidia H100. To potencjalnie ogromna zmiana dla firm, które chcą rozwijać własne modele lokalnie, bez potrzeby korzystania z gigantycznych superkomputerów. Choć komputer korzystający z kart graficznych kosztujących ponad 100 tys. zł, nie jest tanim rozwiązaniem, natomiast średnie i większe firmy mogą sobie na to pozwolić.

image 5
.

Adobe Photoshop – AI pomagające modyfikować zdjęcia.

Photoshop otrzymał trzy znaczące funkcje AI:

  • Harmonize – automatyczne dopasowanie oświetlenia i tonów obiektów wstawianych do obrazu;
  • Generative Upscale – poprawa jakości zdjęć do 8 megapikseli;
  • Ulepszone usuwanie obiektów – teraz skuteczniejsze i szybsze.

Ai newsy

AI Agents: sztuczna inteligencja przechodzi testy CAPTCHA. Jak bardzo „ludzka” już jest?

W eksperymencie z udziałem agentów ChatGPT osadzonych w bezpiecznym środowisku testowym z dostępem do internetu, AI zdołała przejść test CAPTCHA chroniący witryny przy pomocy systemu Cloudflare Turnstyle. Agenci kliknęli pole „Weryfikuj, że jesteś człowiekiem”, a system nie zakwestionował ich tożsamości – nie uruchomił dodatkowych zadań obrazkowych.

Turnstyle analizuje subtelne sygnały: sposób poruszania myszą, odcisk przeglądarki, historię IP. Agenci AI zachowywali się wystarczająco naturalnie, by nie wzbudzić podejrzeń. Co więcej, z powodzeniem wykonywali później złożone zadania, np. zamawiali artykuły spożywcze.

To nie tylko techniczny przełom, to sygnał, że linia między „człowiekiem” a „botem” zaczyna się zacierać.

Sam Altman: „Testowanie GPT-5 to jak projekt Manhattan”

Szef OpenAI, Sam Altman, porównał testowanie modelu GPT-5 do prac nad bronią jądrową. Według niego, GPT-5 nie tylko odpowiada szybciej – on rozumie. Wskazuje na rosnącą „świadomość kontekstową” modeli i potrzebę radykalnego zwiększenia nadzoru.

Altman ubolewa nad tym, że „nie ma dorosłych w pokoju” – instytucje regulacyjne nie nadążają za tempem rozwoju AI. Jego wypowiedź jest ostrzeżeniem: wchodzimy na teren, który może przynieść nie tylko korzyści, ale i realne ryzyko dla społeczeństwa.

Z drugiej strony, Sam Altman znany jest z wyolbrzymiania znaczenia i możliwości aktualnych modeli sztucznej inteligencji.

1 miliard dolarów? Nie wystarczy. Meta odbija się od ściany wartości

Mark Zuckerberg i Meta Labs chcieli przeciągnąć do siebie czołowych badaczy AI, oferując im nawet miliard dolarów w ciągu kilku lat. Na celowniku znaleźli się m.in. członkowie zespołu Mery Morati z Thinking Machines Lab. Wszyscy odrzucili ofertę.

To pokazuje, że w świecie badaczy AI pieniądze przestały być jedyną walutą. Ważniejsze są zaufanie, wartości i autonomia naukowa. W czasach, gdy technologia wkracza w sfery etyki, decyzje personalne nabierają głębszego sensu.

Apple „killer quarter” firma kupuje czas na strategię AI

Apple opublikowało raport za trzeci kwartał fiskalny 2025 roku, bijąc oczekiwania analityków: przychód przekroczył 94 mld USD, dzięki 13‑procentowemu wzrostowi sprzedaży iPhone’ów (44,6 mld USD), przy czym usługi osiągnęły rekordowe 27,4 mld USD. Długofalowy kurs akcji skrócił się po publikacji tylko o 2‑3 proc, co dało sygnał, że rynek uznał tę stabilność, choć z rezerwą co do dalszych inwestycji w AI. CEO Tim Cook zapowiedział znaczące wydatki na sztuczną inteligencję, a także potencjalne przejęcia: w grę wchodzi startup Perplexity AI. Analitycy ostrzegają jednak: Apple nadal pozostaje w tyle za Nvidia i Microsoftem w kluczowych rozwiązaniach AI, m.in. w opóźnionym wdrożeniu nowego, LLM‑owego Siri. Zwracają uwagę, że choć firma ma mocny kwartalny wynik, to dalsze sukcesy zależą od szybkości integracji AI i jasności strategii 

Reklamy w rozmowach z Alexą? Kontrowersyjna wizja CEO Amazona

TechCrunch donosi (data: 31 lipca 2025 r.), że CEO Amazona rozpoczął przygotowania do wdrożenia reklam bezpośrednio w rozmowach z Alexą, generowanych przez użytkowników poleceń głosowych. Chodzi o sytuacje, gdy system wygłasza odpowiedź lub podpowiada: w tych momentach pojawiałyby się reklamy dostosowane do kontekstu interakcji, np. „Najbliższa lodziarnia: poprzez sponsorowaną wiadomość”. Firma argumentuje, że to naturalne przedłużenie modelu monetyzacji usługi, jednak eksperci wskazują ryzyko pogorszenia jakości doświadczenia użytkownika i erozji zaufania, zwłaszcza w kontekście prywatności i użycia danych głosowych.

Google AI wprowadza TTD‑DR – Test‑Time Diffusion Deep Researcher

Zespół Google Cloud AI Research (m.in. Rujun Han, Yanfei Chen i inni) opublikował ramy nowego frameworku TTD‑DR, który modeluje tworzenie raportu badawczego jako proces dyfuzji testowej. System rozpoczyna od „szorstkiego” szkicu wniosku, a następnie iteracyjnie go udoskonala każdorazowo wykonując wyszukiwanie brakujących informacji (retrieval), analizując lukę (gap analysis), a potem dopracowując szkic. Cały pipeline optymalizuje sam siebie poprzez algorytm samorozwoju (self‑evolution), który generuje, oceniania i łączy lepsze warianty planów badawczych, zapytań, odpowiedzi i finalnego tekstu. W porównaniu z innymi agentami DRA (np. OpenAI Deep Research), TTD‑DR osiąga co najmniej statystycznie istotnie lepsze wyniki w złożonych benchmarkach wymagających wieloetapowego rozumowania.

Czy nazwa odnosi się do słynnego skróty Tl;Dr (too loong, don’t read)? Nie wiem, ale się domyślam.

Co to wszystko oznacza?

Nowości, które wprowadzają OpenAI, Google, Microsoft, Nvidia, Adobe czy Ideogram, łączy jeden wspólny mianownik: przesunięcie AI z pozycji narzędzia do roli współpracownika. AI przestaje być tylko wsparciem. Coraz częściej staje się podmiotem – doradcą, nauczycielem, negocjatorem.

Z drugiej strony pojawia się rosnąca potrzeba refleksji i regulacji. Altman nieprzypadkowo mówi o projekcie Manhattan – GPT-5 i jego potomkowie mogą wpłynąć na społeczeństwo równie głęboko jak wynalezienie bomby atomowej.

Równocześnie obserwujemy powrót do wartości w nauce – pieniądze przestają być jedynym argumentem. Badacze chcą wpływać na kierunek rozwoju technologii, a nie tylko liczyć zyski.

Sztuczna inteligencja nie jest już czymś, co „kiedyś może zmieni świat”. Ona już go zmienia – codziennie, po cichu, ale nieodwracalnie.

Jako użytkownicy i twórcy musimy nauczyć się nie tylko korzystać z AI, ale i rozumieć, co znaczy być człowiekiem w czasach, gdy maszyna potrafi przejść test CAPTCHA.

Źródła: