Pisanie o pisaniu programów co się w bólu zrodziło (by @Koncereyra)

Migało to kiedy to weszło, takich pstrokatych stron już nikt przytomny nie robi^^

A kto płaci?
No to istotne kiedy. Jak przed stosunkiem to służy ooserowi.

No ale ktoś w tej demokracji rządzić musi.

Do dzisiaj tak robię. Po co inaczej?
Mam array z cyferkami i je interpretuję. Po kiego mi więcej?

Wystarcza mi if dla danej z tablicy. W zasadzie robi to samo.
Ostatecznie może być while.

Kod należy od razu testować i się dziwić rezultatom.
Jak ktoś się przejęzycza to nie nadaje się do tej roboty.

Za literówki należy rozstrzelać!

W C też!

Wystarczy od razu robić dobrze!

Są to elementy tablicy przedstawione w sposób strawy dla osób upośledzonych.

Ale nie uprzedzajmy faktów - CISC zabrnęło później w absurdy.

Intel po prostu nie dał rady z integracją w pionie. To zbyt złożone.

Więc spokojnie można kopać się w C.

Błąd siedzi przed monitorem!

Chyba że jednak będzie RISC.

Dzięki czemu nie trzeba się było kopać z bibliotekami i do dziś są takie IDE gdzie masz to czego potrzebujesz bez dowiadywania się dlaczego tego nie ma w pakiecie.

A jednak wypada pewne problemy rozwiązać streszczeniem.

Też dołączę się do podziękowań za przypomnienie jak to drzewiej bywało.

Jedna uwaga na temat C(++) i “archaicznych mikrokontrolerów”. Chyba przedwcześnie złożyłeś ten tandem do grobu. Od kilku lat modny jest “internet rzeczy” (IOT). I tam C++ króluje, bo jak trzeba coś uruchomic na 64KB RAM i 256KB FLASH to można zapomnieć o “nowinkach”, które działają na desktopach. A nie można do takich zastosowań (np. mobilnych) używać mocniejszego sprzętu, bo “żre prąd”. I jak ktoś chce oprogramować zestaw sensorów, które będą działać na baterii guzikowej przez kilka miesięcy (lub lat) używając do tego sieci bezprzewodowej, to nie może tam zastosować nawet najsłabszego desktopowego procesora. Bo bateryjka mu zdechnie po kilkunastu dniach. IOT to nie tylko upychanie procesorów do “zwykłego” sprzętu ale np. mikrodrony czy “inteligentne towary” znakowane już w fabrykach. Zapotrzebowanie na słabe, prymitywne mikrokontrolery rośnie. Owszem tworzone są języki, które w zamyśle mają zastąpić C w pisaniu niskopoziomowych systemów (np. Rust), ale jak na razie są mało popularne.

3 Likes

a czy to nie jest w M2M po low energy LTE i LTE-M ?

1 Like

RISC czyli dziś praktycznie tylko ARM. Albo programowanie na kartach graficznych czyli niby “procesor wektorowy”. Przez złe krypto tak wyszło, że dziś w najepiej sprzedają się uniwersalne obliczenia na GPU.

Ale Pascal był najpierw:) W sensie jak miałbym wybrać w czym programować to wybrałbym C (zamiast Pascala) ale nie ujmuję mu palmy pierwszeństwa.

Obiekty (poza UI) są po to by w kodzie odzworowywać strukturę koroporacyjną. Co nie jest takie głupie kiedy projekt ma 100+ osób.

Prawda, IoT rośnie i nie jest archaiczne. Bardziej mi tu chodziło o wiekowość architektury tych chipsetów.

Mój pradziad kaszę drewnianą łyżką to i ja tak robić będę.
"Słuchaj młody ojca grzecznie
A żyć będziesz pożytecznie.
Stamtąd czekaj szczęśliwości,
Gdzie twych przodków leżą kości."
Z resztą tu nie chodzi o obiekty, a o polimorfozm, który np w Pythonie i innych językach dynamicznych jest realizowany przez duck typing. W C przez void* i enumy [jak w Gnome czy Gcc] a w TypeScript przez otwarte interfejsy.

Kiedyś do programowania mikrokontorlerów był taki język jak Forth. To dopiero była oszczędność czasu procesora względem czasu programisty. Taki komercyjny Brainfuck albo Intercal polecam poczytać:)
A Rust jest rzeczywiście bardzo ciekawy. Można by powiedzieć, że wywodzi sie z tej fascynacji wykładami Joe Amstronga i próbą zrobienia w C dwóch ważnych rzeczy: zastąpienie ręcznej allokacji pamięci bardzo skrupulatnym kontrolem zakresu i “singletonowymi pointerami”. Microsoft próbował to robić w Singularity, a wcześniej Bell Labs w Plan9 (tyle, że bez dedykowanego języka programowania).
Plus znany z Erlanga asynchroniczny message passing jako mechanizm wielowątkowości.
Składnia troche archaiczna (wolałbym taką z Ocamla) ale pomysł dobry.

1 Like

Hmm, to pamiętam z przeszłości, w której jakiś dyrektor miał powiedzieć:“To niech się programista nie myli”. Tylko skąd takich znaleźć? Podobno tylko Dijkstra (Edsger W. Dijkstra - Wikipedia) był taki ale i to pewnie mit. Przeczytałem kiedyś (30 lat temu?) opracowanie pod niewinnym tytułem: “Programowanie niezawodnego oprogramowania”, w której było mnóstwo przykładów jak niedopracowana składnia języka prowokuje programistę do błędów. Np. w Fortranie (moja córka mówiła w fortepianie:) omyłkowe użycie kropki zamiast przecinka w instrukcji FOR nie powoduje ani błędu kompilacji ani wykonania, tylko po prostu program działa źle. Nawet się ordynarnie nie wywala, tylko działa “tajemniczo”. A z powodu takich drobnych błędów fiaskiem kończyły się misje kosmiczne za grube miliony.

3 Likes

Klient płaci, klient wymaga.

Wystarczy przeczytać powyższe zdanie od tyłu i zagadka rozwiązana.
Oczywiście możesz też zapomnieć o mistrzu bębna, sabatach i kodzeniu na rozkaz.

3 Likes

Skoro działa nie trzeba poprawiać.

Skoro działa.

Zaprogramowanie serii prostych operacji zamiast złożonych udziwnień po kilka cykli zegarowych ma swoje zalety i znam je.

Musiałem przez niego przebrnąć i C wydał mi się sensowniejszy.
Po dekadach zauważyłem że mam bias na pewien typ rozwiązań (również przedstawienia graficznego) i ono jest odmienne u użytkowników niż u twórców. Zapewne co innego tam chcemy zobaczyć.

No to jest powód przeciwko korporze.
Tyle że proces przetwarzania wygląda jak każdy inny cykl produkcyjny. Nawet nie trzeba odwzorowywać - samo tak wychodzi.

Działa - nie psuj.

Materiał łyżki się zmienia, ale nie forma.
A kaszę żreć trzeba.

A do czego to potrzebne, czego nie da się zrealizować porządnie?

Wystarczy wybijać tych co się mylą i zbiór zostanie zawężony do oczekiwanych obiektów.
To jak z ekonomistami - z okazji kryzysu należy wybić połowę i jak się nie poprawi kontynuować.

Raczej nie. Mnie jeszcze uczyli programować na kartce, a później wprowadzać już wyłącznie poprawny kod bo czas maszyny był drogi.
To taniość maszyn dopuściła gamoni do wprowadzania danych. Rezultaty widzimy wokół. Wszystko działa tylko ten cyberpunk jakiś taki wyszedł humanistyczny.

To nie omyłka, to zwyczajny sabotaż!
Podzielam pogląd że powinny być za te pomyłki wymierzane baty. Publicznie pod siedzibą firmy.

Kiedy wprowadzano kod ręcznie magnesując pierścienie jakoś działało. Czyli drewniana łyżka jest dobra do tej kaszy.

1 Like

To chyba chińska metoda selekcji programistów ale też nieskuteczna bo jakoś wysokiej jakości chińskich systemów nie ma.

To się zmienia. W związku z wykupieniem ARM’a przez Nvidię blady strach padł na azjatyckie firmy, bo nie wiadomo czy za parę lat dostaną licencję na produkcję. Dlatego zaczął się dynamicznie rozwijać projekt RISC-V. Jest open source (bez licencji) i jak dotychczas był wykorzystywany głównie do produkcji kontrolerów (dysków, sieci, …). Teraz są próby zaprojektowania wydajnego procesora RISC-V ogólnego stosowania. Nawet Intel włączył się w ten projekt i próbuje wykupić jedną z wiodących firm projektującą takie procesory.

2 Likes

Jeśli wiesz więcej o kulisach to napisz o co poszło. Bo przez chwilę właścicielem ARMa byli Chińczycy działający przez proxy w postaci Softbanku z Japonii. Nie znalazłem informacji dlaczego Brytyjczycy opchnęli ARMa Chińczykom skoro chwilę później Amerykanie wykupili go od Chińczyków.

I dlaczego Chińczycy ARMa sprzedali ? I to w dodatku Amerykanom ?

Bo czasy kiedy Chińczyków można było nastraszyć lub zaszantażować to raczej minęły …
Nie ogarnęli technologii ?

1 Like

napisano na smartfonie^^

A że oni się tam będą pytać o licencje?

Bo intelowi nie wyszło z własną produkcją.

Przymus był.

Dokumentacja ni mogła wyjść poza UK z powodu bezpieki. Tam jeszcze machloje były z patentami. No po prostu Atlanci powiedzieli że tego nie oddadzą. Ale i tak produkuje Azja.

To bardziej skomplikowane. Głównym udziałowcem Softbanku nie jest Chińczyk a Koreańczyk (26.47%). Jest rezydentem w Japonii. Pozostali duzi udziałowcy to banki (japońskie). Nie zapominajmy, że Japonia jest dalej okupowana przez USA. Inaczej niż Niemcy, których okupacja formalnie się skończyła po wycofaniu wojsk koalicji. Stacjonujące nadal wojska USA w Niemczech są “na zaproszenie” rządu Niemiec. Formalnie ARM jest firmą brytyjską i każda transakcja i tak musiała być zaakceptowana przez rząd JKM. Ta walka rozgorzała ponieważ ARM zbyt urósł i jego procesory z rynku smartfonów zaczęły ekspandować na rynek tabletów, laptopów a nawet desktopów (przykład Apple). nawet Microsoft ze swoją wersją Windows 11 wszedł na rynek procesorów ARM. Intel chyba poczuł się zagrożony i chce wskoczyć w rynek procesorów RISC wspierając projekt RISC-V.

2 Likes

Drobna poprawka. Jest w 3-cim pokoleniu Koreańczykiem. W 1990 roku uzyskał japońskie obywatelstwo.

1 Like

Nie. Kiedyś w tym grzebałem: ci duzi udziałowcy, którzy tam w rejestrach figurują, to trusty, więc są udziałowcami nie za swoją kasę i na zlecenie. Nie wiemy, czyje zlecenie, ale pewną podpowiedzią może tu być fakt, że Softbank jest największym udziałowcem Alibaby. I prawie połowę udziałów w Softbank mają “Others”.

2 Likes

Również wework^^
I wielu innych cudnych przedsięwzięć.

Już Windows 8 był na ARM ale się nie przyjął.

bo najważniejszym producentem procesorów jest teraz Nvidia:) Z resztą też ma swoje układy ARMowe od dawna (np Tegra) ale głownym podwykonawcą ARMa jest amerykański Qualcomm

ARM nie robi chipów tylko design. Taki mieli model biznesowy od początku. Więc raczej Chiny ogarniały bo ktoś Cortexy robi (HiSilicon).

Da się - w Rubym i Smalltalku się dało. Po prostu model poliforfizmu wcisnięty w C za pomocą plusplusów i potem poprawiany w Javie i w C# jest niczym FSO Polonez:)

Też mi się marzy by programistom płacili 1000oz Ag rocznie jak za starych dobrych czasów. Ale doświadczenia wszystkich innych branż mowią, że lepszy wrobel w garści niż krnąbrny geniusz na w piwnicy.

Tak to akurat nigdy nie było. Ręcznie się przełączało wtyczki programujące stany - owszem - ale ręczne magnesowanie pierscieni to były perwersyjne zabawy phakerów

1 Like

Właśnie: produkować wg specyfikacji to jedno,
wymyślać specyfikację to co innego.

Chińczycy się właśnie tego uczą w Volvo i w Pirelli i z tego co słyszałem nieszczególnie im to idzie.

1 Like

Kupili tez Olympusa (kawałki) i razem z kilkoma producentami obiektywów (yongnuo, 7/TTArtisan) chcą podgryźć japońską optykę.

1 Like

Zwłaszcza w Sagan.

Eskapizm głównym zastosowaniem procesorów.

1 Like

Dalej nie widzę zastosowania.
No chyba że ktoś nie wie po co kod pisze i potem się zobaczy, no to wtedy trzeba kombinować z klejem i nożyczkami.

Ciągle jednak wojują z piwnicą, która złośliwie wprowadza im jakieś BTC i nie ma na kogo zwalić, że to z jego piwnicy.

Było. Komputer pokładowy do Apollo tak był zrobiony.