Pisanie o pisaniu programów co się w bólu zrodziło (by @Koncereyra)

to ten sam engine (‘Chromium’) co Chrome (MS przestal robic swoj), więc jesli chciales exploitowac to na ‘e’ tez zadziala. ‘e’ tylko szpieguje dla kogo innego. To samo Opera i praktycznie wszystkie inne. Firefoxa mozna sobie odpuscic nawet, bo mala czesc rynku, szkoda zachodu (no i sam uzywam , wiec prosze sie odczepic i nic nie exploitowac;>).

zapomnialem o macowym safari na webkit, ale makowcy sami chyba tez nie sa fanami tego i uzywają googlowego.

1 Like

@Koncereyra możemy liczyć na drugą część?
Co tam się dziś dzieje na samym szczycie dzidy?
Siedzisz to wiesz ^^

1 Like

QT to jest taki meta C++ z meta-object compiler to stopień abstrakcji jaki dostarcza klasyczne C++ (obiekty i templaty) to za mało.

Generalnie wszystkie języki turing-complete są równoważne, co nie znaczy, że należy się męczyć bardziej kiedy można mniej (ok, są tacy którzy to lubią).

To jest akurat bardzo dobre, z resztą C++ kompiluje się dziś via LLVM i wykonuje to procesor dokonując translacji na własny mikrokod.

To akurat gorzej. Tzn. da się żyć i tworzyć nie wiedząc jak działa kompilator (złośliwie powiem, że mam wrażenie, że większość komentujących zatrzymała się na wiedzy o kompilatorach z lat '90, czyli w sam raz z nostaligcznego artykułu). Natomiast niezrozumienie jak działa pamięć rodzi mnóstwo problemów i to w językach wysokiego poziomu jak C#/Java/JavaScript/Python.

Konsument co taki szajs kupuje.

Tak

Nie. Tzn widziałem kilka projektów gdzie ludzie nie ogarneli po co są templaty i za ich pomocą chcieli zmienić C++ w Pythona. Moja rada w tych przypadkach: pisać od razu w Pythonie, a jak komuś zależy na wydajności to w Ocamlu/D/Rust. Ale to akurat nie jest wina templatów (w C też można zrobić sobie krzywdę i nie mówię tu o buffer overrun ale o #define) tylko, że lead tego projektu w tym czasie zajmował się głownie Instagramem/Tinderem.

To jest kolejne nieporozumienie, odkąd zaczeliśmy iść w rdzenie a nie megahertze to stopień skomplikowania środowiska jest większy. Współbierzność to nie w kij dmuchał.

Praca jest po to by było gdzie wychodzić z domu na święty spokój:)

Tak, ale praktyka pokazuje, że po prostu projekt się optymalizuje, aż wyjdzie szybszy hardware. Pewne wymagania się nie sumują.

Za uczciwe stawki to mogę być nawet niańką albo malarzem:) Jak to się mówi “człowiek dla pieniędzy zrobi wszysktko, nawet zgodzi się pracować”:slight_smile:

ee, przecież programowanie jest właśnie for fun. Jak kogoś to nie bawi, to nie wytrzymuje i idzie w inne dziedziny o podobnych zwrotach. Za pieniądze to programują http://test.carrots.org.pl i inne dziewczyny po wakacyjnych bootcampach.

Za młody byłem i zamiast Amigi miałem PCta. Z resztą zawsze wolałem algebrę od analizy:)

Wszystko fajnie i dużo boilerplate code to rozwiązuje (takie Ruby on Rails dla 3d:)) ale w UI największym szitem to nie jest sama grafika (z resztą każdy z nas od razu poza UI/UX projektowane przez programistę - tego nie da się odzobaczyć:)) ale wtórne interkacje między elementami. Tu kilknę, tam przewinę, tu się przesortuje i przeskaluje. Z resztą migracja z najnintsowych winformsów do Gnome czy html/css to już jest jeden ekstra poziom komplikacji: zamiast na sztywno mieć elementy na gridzie, to różne rzeczy muszą się różnie od siebie proporcjonalnie rozjeżdżać. Robota głupiego:)

Tak, w sensie marzenie o quasimaszynowym języku niskiego poziomu do pisania bezpiecznego oprogramowania systemowego to taki święty Graal, który działa dobrze w R&D (Singularity - Microsoft Research ) ale w praktyce bardzo trudno to osiągnąc.

“Stu gwardzistów bije się jak 1000 żołnierzy a je 1/10 tego” (c) Napoleon. Z resztą burdel w dużych projektach jest taki sam, niezależnie od tego czy to C czy Python. Po prostu w pewnych językach (Haskell <3 ) łatwiej wymusić spójny kod z mniejszą liczbą błędów.

Tak, praktyczna wielordzeniowość i wymuszona przez to współbieżność to ostatnie 20 lat. Wcześniej były potworki jak Ada, albo while(1) fork();

Dlatego AI robimy w Kerasie który używa Tensorflow (Python) i Numpy (Python/BoostC) a potem jest BLAS i LAPAC (Fortran).

Perl, Python, Go do wyboru do koloru. Ale nie będziesz od tego szczęśliwszy:) PS dopiero strongly typed dają namiastkę szczęścia:))

Boost Python albo Cython. Ale znowu, to choć spełnia Twoje formalne kryteria, to nie rozwiązuje problemu. Bo to ten klej (" w szczegółach przecież diabeł gości, a Polak gardzi szczegółami") to problem. Stąd jak mam możliwość wyboru (tzn nie jest to sytuacja gdy potrzebny mi framework narzuca język, jak w AI) to wybieram raczej rzeczy typu Ocaml lub Typescript gdzie się program pluje, że jest źle napisany zanim go napiszę.

i to zapewnia nam job security, ta mnogość zapomnianych frameworków które nastąpią po współczesnym nam peak software:slight_smile:

Łatanie starego kodu w Pythonie to jest bułka z masłem w porównaniu z łataniem starego kodu w C. Bo “stary kod w C” to jakaś homeostaza C, assemblera, Makefile, bash, perla i paru innych narzędzi których twórcy dawno odeszli do krainy wiecznych łowów.

Parkinson pisał bardziej o ośmiu, ale tak - metodologia zarządzania jest taka, by dzielić produkt na podprojekty co może je ogarnąć te 3-8 osób.

2 Likes

A co się ma dziać? Siedzimy, nic się nie dzieje. Mariusz Cię pozdrawia…

A tak na serio to dzieje się kilka rzeczy, o których w więszkości wiemy:

  1. AI - mimo, że nie ma takiego postępu jak 10 lat temu, to ciągle z tej dłubaniny powstają coraz lepsze narzędzia (patrz GPT-3)
  2. Wspomniana przeze mnie już wiele razy rozproszona współbieżność czyli chmura. Czasem nawet lokalna chmura na laptopie, ale właśnie przez to, że pisanie programów współbieżnych i rozproszonych jest istotnie trudniejsze niż zwykłych, to mamy tu bardzo duży opór materii i dużo różnych “czarodziejów” i usług typu kilknij-i-zrobi-się-samo. Jak jest każdy widzi.
  3. Chmura to też mnóstwo ulubionych przez @3r3 ograniczeń fizycznych. Np tak szybko gromadzimy dane, że za niedługo nie damy ich rady zapisywać i odczytywać. O backupach nie wspomnę. Tak jak megahertze przeszły w rdzenie, tak przydałoby się w coś przerobić petabajty ale nie bardzo wiemy w co.
  4. Komputery kwantowe, na którymi wszyscy pracują dla dobra ludzkości a wszyscy wiemy, że chodzi o łamanie kodów. Na tym się nie znam zbyt dobrze - śledzę postęp od dwóch dekad i co roku jest coraz lepiej i jesteśmy już o krok od przełomu… a ciągle jesteśmy w lesie. Ale to niewątplwie będzie największy game-changer, bo bez szyfrowania asymetrycznego przestaje działać e-commerce, krypto,… w zasadzie internet staje się takimi samymi Dzikimi Polami jak na początku lat '90tych.
  5. A propo szyfrowania, to oczywiście Narodowe Centrum Bezpieczeństwa Cyberprzestrzeni szuka specjalisów:)

W sensie IT ma w dużej mierze ten sam problem, co wszystkie inne dziedziny naszej cywilizacji - gdy siadła podaż “prostaczków” nagle trzeba z pewnych projektów rezygnować. I o ile wyrzucenie na bruk kilkudziesięciu tysiecy pracowników, nawet jak są to specjaliści - to nie jest problem. To redukcja projektów oznacza redukcję managerów - a tam od pewnego szczebla obowiązuje logika polityczna - kto pod kogo jest podwieszony. Takie redukcje praktycznie nigdy nie następują i prędzej korpora wydrenuje jak pasożyt państwo-żywiciela niż się sama po dobroci zredukuje.

PS Poważne korpo wie, że Zachód nowych specjalistów i klientów nie urodzi i próbuje jakoś przytulić się do Afryki.

4 Likes

Nie tylko Internet. Jeśli naprawdę zadziała, cały świat ostatnich 20 lat odejdzie w niebyt.

Przy tym karotki to dieta cud.

1 Like

A komuś będzie żal? Niech następni liczą szybciej, kopią głębiej, latają dalej.

1 Like

Jeśli babci urosną wąsy.

Wielu rosna. Hiperandrosteronizm.

3 Likes

Albo raczej im promieniowanie kosmiczne oprogramowanie psuło :wink:

1 Like

Żeby w takiej komórce pamięci promieniowanie mogło cokolwiek zepsuć to załogi by nie przeżyły.

1 Like