Vi har haft en fejlrapport imod Varnish på OSX hængende i nogen tid og til sidst brød jeg sammen og kørte ud i en kassebutik og købte en M1 Mini for at komme til bunds i det.
Det kan jeg så ikke helt påstå at være kommet, men i det mindste har jeg fundet en workaround der virker.
Så elegant som UNIX's errno
er, er det en helt utilstrækkelig mekanisme når et systemkald tager tre argumenter og returnerer EINVAL
[1]
Anyhow, jeg er oprigtig taget imponeret af M1 hardwaren.
Den bruger kun 3½ minut på make -j 32 distcheck
af Varnish Cache, uden på noget tidspunkt at bruge mere end ca. 20 Watt.
Min egen laptop (T480) bruger et minut længere og tre gange så meget effekt.
Hvis jeg havde haft aktier i Intel, ville jeg sælge dem på stedet.
I objektive termer er det egentlig ikke imponerende, det er sådan set hvad state-of-the-art burde være nu om dage, men som alle ved er der ikke skyggen af sund konkurrence på markedet for high-end CPU'er, der kunne præcist opsummeres som servitricen i Blues Brothers: "We have both kinds of CPUs: Amd and Intel".
Det er ikke fordi det har skortet på folk der kunne se potientialet i ARM64 arkitekturen, men alle startups der har prøvet at løfte opgaven har, for at sige det pænt, opdaget hvor gode tilbud Intel kan give til kunder der vakler i troen.
Men Apple er for stor til den slags og for dyr for Intel at bestikke, så M1 er hvad der sker når sund arkitektur møder kompetente chip-designere.
De første svar fra Intel har været ren "Markitecture", som de altid gør, men på et eller andet tidspunkt kommer der sikkert et egentlig modspil, men taget i betragtning at Intel pludselig vil til at lave chips for 3. part kunne godt tyde på at de ikke selv regner med at det kommer lige med det samme.
Nu mangler vi bare at nogen køber M1 chips hos Apple og laver fornuftige 1U/2U rack maskiner der kører FreeBSD og Linux...
For ja, OS/X er så sovset ind a spyware nu om dage at maskinen blev placeret på mit "Internet-of-shit" netværk, fra hvilket der ingen vej er ud i verden.
phk
[1] Mit eget forslag, for mange år siden var at tilføje et systemkald hvor en tråd kunne registrere en buffer hvori detaljerede fejlbeskeder kunne produceres, således at kernen ikke spilder tiden på detaljerne, med mindre nogen faktisk ønsker dem.
- emailE-mail
- linkKopier link

...men det er dyrt at lave god journalistik. Derfor beder vi dig overveje at tegne abonnement på Version2.
Digitaliseringen buldrer derudaf, og it-folkene tegner fremtidens Danmark. Derfor er det vigtigere end nogensinde med et kvalificeret bud på, hvordan it bedst kan være med til at udvikle det danske samfund og erhvervsliv.
Og der har aldrig været mere akut brug for en kritisk vagthund, der råber op, når der tages forkerte it-beslutninger.
Den rolle har Version2 indtaget siden 2006 - og det bliver vi ved med.
- Sortér efter chevron_right
- Trådet debat
Enig med PHK her, jeg er også ekstremt imponeret af M1 og Rosetta2 er ikke mindre imponerende. Er også specielt glad for at dens single-core performance er gennem loftet.
Købte en M1 Macbook Air til konen i gave og, fra én som i øvrigt hader laptops vil jeg sige at den er så tæt på den perfekte laptop som jeg endnu har mødt. Til "almindelige mennesker" er det maskiNEN man skal købe. Total lydløs (ingen køler) og kølig, fantastisk build kvalitet, performance sparker røv og batteriet holder for evigt. Man tror ikke på det før man har prøvet. Kvantespring er et stort ord men.....
Og KØLIG er nøgleordet her - de fleste mennesker er ikke klar over at den kraftige x86 CPU der sidder i deres laptop er tæt på ubrugelig, da den efter 20 sekunder er løbet så varm at dens performance bliver droslet kraftigt ned. Dette sker ikke på M1, den trucker bare der ud af.
Og M1 Mini er klart den maskine jeg ville købe uden at blinke hvis min iMac stod af lige i dag, fantastisk lille maskine.
Deres processorer koster jo det samme som de har gjort i mange år. It aint gonna change.
Supply and Demand. Hvis man overproducerer chips, f.eks. som konsekvens af, at en masse PC hardware og lignende har ligget på container pladser og pludselig kommer i handelen samtidig med at man får skruet op for chip produktionen er der en god chance for over supply.
Uanset hvad Intel og AMD chipsne koster for engros ledet, er der stadig en risiko for, at de brænder inde med dem pga forsyningen - samtidig vil AMD, Intel og Apple stadig søge imod at lave nye og bedre chip designs, hvilket kan føre til, at jorden brænder under ældre modeller der er endt på lagre rundt omkring.
Når der er supply bottlenecks som nu, er der en tendens til at bestille mere end man har brug for. Disse ordrer arbejder sig ned igennem forsyningskæden, som er designet efter just in time princippet og ikke efter den nuværende situation.
Så, der er potentiale for, at vi kan se nogle chips falde i pris. Det plejede at være sådan, at man kunne købe lidt ældre modeller til en røverpris. Det er over de sidste 10-15 år stille og roligt blevet faset ud, hvilket er ærgeligt, fordi ældre CPUer har haft en tendens til at forblive mere relevante idag end de var i f.eks. 90erne.
Det skal dog siges, at bare fordi jeg siger der er potentiale, er det ikke ensbetydende med, at jeg siger det sker. Det er noget jeg håber på sker.
Måske et spørgsmål om perspektiv, men den forstår jeg ikke helt argumentet. To konkurrenter battlede i slut 90'erne. To konkurrenter battlede rigtig hårdt op igennem nullerne. Intel satte sig på tronen, men fortsat kun to konkurrenter fra start 10'erne og frem. To konkurrenter battler om tronen fra AMD viser Zen tænder.Når TSMCs nye fabrikker står klar, og det globale supply demand cirkus løser sig sig, er der potentiale for nogle gode billige CPUer. YaY.
Kan ikke rigtig se, hvorfor AMD og Intel pludselig skulle reducere deres priser fordi efterspøgslen falder til mere normale niveauer - eller for den sags skyld de har købt sig til mere kapacitet.
Deres processorer koster jo det samme som de har gjort i mange år. It aint gonna change.
Det er super fedt der sker ting på CPU scenen.
M1 Pro er helt sikkert et stærkt udspil fra Apple.
Intel er lige kommet med Alderlake, der ligesom M1 chippen der, har kerner til productivity og til efficiency. Så, en noget anderledes opsætning, end hvad de ellers har skummet fløden på at raffinere de sidste 10 år.
AMD Ryzen er blevet en moden oplevelse. Selv har jeg for nylig skiftet notebook på arbejde til en Ryzen 5850 Pro med 8 cores, 16 threads, 1.9GHz base clock med 4.4GHz boost, 7nm FinFET baseret og en TDP på 15W, alting monterer i en Lenovo Thinkpad p14. På denne notebook kan jeg starte Prime95 og tæske alle mine cores og RAM med primtals beregninger meget længe før jeg begynder at høre, en meget meget svag, CPU cooler lyd og det tager endda noget tid, inden det sker.
Det er i sig selv en udvikling i forhold til hvad vi så bare for et par år siden. Hvordan Alderlake bliver, vil tiden vise. Intels første generationer er ikke altid lige gode, men de har da før skubbet Apple væk fra ARM og derfor kan de også gøre det igen. Det er i hvert fald kærkommen konkurrence, Intel forsøger sig også med noget grafik, men om vi kan få en 3. part på banen der, må vi vente og se.
Når TSMCs nye fabrikker står klar, og det globale supply demand cirkus løser sig sig, er der potentiale for nogle gode billige CPUer. YaY.
... og se min Mid '15 Macbook Pro blive 'bricket' inden Apple får frigivet næste version.
https://www.digitaltrends.com/computing/macos-monterey-bricking-older-macs/
Nej tak - det venter jeg lige med :)
Det tror jeg så du helt har ret i.Men at Apple skulle acceptere rollen som underleverandør ... det har jeg svært ved at forestille mig.
citatet er fra Jim Keller.
https://www.anandtech.com/show/16762/an-anandtech-interview-with-jim-keller-laziest-person-at-tesla
på Chips & Cheese kan man læse en lidt længere gennemgang af ARM vs x86
https://chipsandcheese.com/2021/07/13/arm-or-x86-isa-doesnt-matter/
Set i det lys, og uagtet at apples M1 chip er baseret på 5nm, kan man ikke undgå at være imponeret over hvad apple har har opnået med deres seneste M1 baserede computere.
@29: Du har helt ret, men DEC's Alpha havde flere problemer end prisen:
Alphaen (DC21x64, hvor x var 0,1,2) havde i begyndelsen meget små caches (svjh: 0=16, 1=32, 2=64 kB inst og data) og de kunne udføre flere instruktioner per cycle.
Dengang var feature-størrelsen meget større (>100nm gætter jeg på) end dagens (5-14 nm); det var ikke plads til så meget cache. Dette sammen med spekulativ håndtering af branches (begge grene kørte videre, indtil target af branch var kendt), som åd noget mere af I-cachen.
(Fandt for mange år siden en youtube-video med Herb Sutter, hvor han forklare det i flere detaljer, men jeg har ikke kunnet finde den i ca 10 år.)
Hvis DEC havde kunnet "ride stormen af", havde computer-markedet nok set anderledes ud i dag. Men Intel og Microsoft (som arvede kunden: US-gov) har klaret sig nogenlunde, trods fakenews.
Apples M1 lever på ARM-ISA (modificeret) og masser af cache (op til 192/128kB I/D-cache); hvilket er mere end IBM's z14 server-CPU! Og naturligvis deres noget unostalgiske forhold til bagudkompatibilitet. De statser på pengestærke kunder, som vil have det nye og er ligeglade.
(At DEC fritstillede mig for 29+ år siden, havde jeg nok kunnet klare, hvis mit hjemland (DK) havde udvist mere anerkendelse af deres (DEC's) interne uddannelser i stedet for at kræve "lokal uddannelse". Men sådan er der jo så meget;)
Tænk hvor vi havde været hvis Intel den gang ikke havde begravet Alpha CPU'en men havde arbejdet videre med den.
Den meget simple fortolkning af historien er ret ubrugelig.
Intel tog en masse ting fra Alpha med til Itanic og en hel del ting til x86 også.
Har lige fundet årsagen. Compaq vidte ikke hvad de skulle bruge Alpha CPU'en til og de var allerde gået sammen med Intel. Alpha arkitekturen blev derfor i 2001 solgt til Intel, som begravede projektet.Lidt underligt at HP ikke har bygget videre på det efter at de overtog Compaq, som i 1998 overtog Digital.
Tænk hvor vi havde været hvis Intel den gang ikke havde begravet Alpha CPU'en men havde arbejdet videre med den. Digita (DEC) var på mange måder meget langt fremme med teknologier. Problemet var så nok bare prisen, de var meeeget dyre.
Historien viser at det meget ofte ikke er den bedste teknologi der vinder. I starten af 80'erne indgik Motorola 68000 CPU i undervisningen på Teknikum, en 32-bit CPU med håndtering af virtuel hukommelse og meget mere. Hvornår var det lige Intel og Windows udyttede det?
Som OS var OS/2 langt foran Windows 3.1 og Windows 95, alligevel vandt Microsoft.
Jeg har en gammel Digital computer stående, som har en 64-bit Alpha CPU, den har kørt en 64-bit version af Redhat, en meget kompetent CPU. Lidt underligt at HP ikke har bygget videre på det efter at de overtog Compaq, som i 1998 overtog Digital. Min Digial computer er nok fra medio 90'er.
I praksis har computeren faktisk kørt en version af Microsoft NT 3.1, som eksisterede i en version til Alpha processoren. Det skyldes nok at det ikke er Microsoft som selv har udviklet ting i NT 3.1, det er sket i samarbejde med en tidligere udvikler fra Digital, som førte til en retssag, hvor Digital anklagede Microsoft for at have "stjålet" kode fra Digital. Det endte med et forlig, hvor NT 3.1 blev frigivet i en version til Digital's Alpha CPU.
En lille interessant ting er også at betragte prisen:
Mac mini M1 med 8 GB ram og 512 GB SSD, 8-core CPU, 8-core GPU og 16-core Neural Engine koster kr. 7.999,- inkl. moms.
Apple sælger stadig den gamle model:
Mac mini 3,0 6-core Intel Core i5 med Intel UHD Graphics 630, 8 GB ram og 512 GB SSD koster kr. 9.799,- inkl. moms.
Hvis man kan nøjes med 256 GB SSD kan man få en Mac mini M1 for kr. 6.199,- inkl. moms. Ikke galt for en lille og meget kompetent maskine i størrelse madkasse. Specielt fordi GPU'en sparker ret meget røv. Bare synd at de store spiltitler som GTA V ikke kan køre på dem - for ellers havde jeg udstyret alle ungerne med M1'ere. ;-)
At performance er bedre på den nye hardware har meget at gøre med ar visse API’er kører hurtigere under M1, så når Apple afvikler et Intel-program under Rosetta 2, så er det kaldene i API’erne som bliver kørt native på Apple Silicon.
Den øgede performance kommer meget fra shared memory mellem CPU og GPU, og på denne måde bliver det automatisk hurtigere at eksportere en video på M1 i samme kvalitet som tidligere.
<em>Yderligere er det sådan at hvis man begynder at producere CPU'er til andre, så skal man til at love dem alt muligt med long term support, kompatibilitet på tværs af hardware revisioner, dokumentation af (næsten) alt, etc.</em></p>
<p>Nu er Apples produkter i forvejen noget mere langtidsholdbare end de fleste andre så det skulle ikke være specielt svært.
Det var ikke det jeg mente. Hvis jeg giver mig til at designe hardware med M1 processoren så skal jeg have garantier for hvor længe de bliver ved med at producere netop den version jeg har designet til. Det er ikke anderledes end med alt andet hardware. Jeg kan garantere dig at Apple også kræver samme garantier for sine underleverandører. Men at Apple skulle acceptere rollen som underleverandør ... det har jeg svært ved at forestille mig.
Hvad jeg (og mange andre) har konstateret er, at intel-programmer kører en pæn sjat hurtigere gennem Rosetta2 på en M1 - end på en Intel Quad Core i7 med hyperthreading. For After Effects vedkommende renderede det video ca. 20 % hurtigere.
Nu skal man være forsigtig med den slags vurderinger. Der kan være en pæn del af koden der udføres af kernen og således allerede er optimeret til M1 ... måske endda offloadet til grafikprocessoren. Det er også muligt at "snyde" når det handler om video hvor man vælger en smule lavere kvalitet for at hæve hastigheden. Jeg har ingen indikationer på at det er sådan, men hvis man skal sammenligne CPU performance, så skal man være sikker på hvad man måler på. Det ændrer selvfølgeligt ikke ved at rå CPU performance blot er en lille del af brugeroplevelsen og hvis man roder med After Effects så er det det der tæller.
… så du får adgang til Apples nye VM framework. Kun til macOS endnu, men mon ikke der snart kommer mere: https://mrmacintosh.com/you-can-now-virtualize-macos-on-an-m1-mac-with-macos-monterey/
Hvis vi lige ser bort fra MacBook Pro 2008, 2011, 2012retina, 2016 og 2017 samt iMac G5 og iMac 27" 2011 (hvor en stor del havde ca. 5-6 års levetid før forskellige hardwarefejl tog livet af dem), så er Apple Hardware faktisk rigtigt lang tid i brug.
Mine observationer er fra 30 år som Mac-supporter, så det er i real-life. Typisk har mine kunder deres maskiner i ca. 5-8 år før de udskiftes - og går i arv. Maskiner udrangeres typisk efter 9-10 år pga. forældelse i forhold til software.
Jeg er jo så Mac-bruger gennem mange år ... primært fordi Amiga døde og når man skulle rode med grafik, så var det Mac'en man brugte ... way back.
Jeg købte også en Mac mini M1 i december 2020 for at afprøve den - og for at lære problemerne at kende. Det måtte der jo være, når man skifter arkitektur i så omfattende grad. Det var så overraskende lidt, der drillede ... faktisk har min M1 kørt væsentligt mere stabilt end den maskine, den afløste.
Apple har lagt Rosetta2 i macOS til M1 - og det betyder, at de fleste eksisterende programmer til macOS på Intel stadig kan køre.
Hvad jeg (og mange andre) har konstateret er, at intel-programmer kører en pæn sjat hurtigere gennem Rosetta2 på en M1 - end på en Intel Quad Core i7 med hyperthreading. For After Effects vedkommende renderede det video ca. 20 % hurtigere.
I nogle tests var Photoshop under Rosetta2 hurtigere end MacBook Pro 16" 2019 med i9-processor. Og det endda med meget mindre ram til rådighed.
Jeg har lavet logning på memory-pressure på flere af mine kunders og mine egne maskiner. Og her må jeg konstatere, at M1 klarer sig med mindre fysisk ram end Intel-maskinerne. Der foregår åbenbart en masse komprimering og brug af virtual memory på en måde, så det er overordentligt vanskeligt at presse maskinen ud i hjørnerne.
Selvom jeg har et hav af programmer åbne altid - og min maskine næsten altid har nok at foretage sig, har jeg endnu ikke hørt blæseren i min mini køre (den kører nok langsomt). CPU-temperatur ligger konstant på ca. 35˚-40˚, hvorimod min gamle mini med Quad-Core i7 konstant lå på ca. 70˚-80˚ ... med tydelig blæserstøj.
Jeg venter selv spændt på at at FreeBSD kan køre på M1 ... for så skal et par meget lune Intel-maskiner udskiftes.
Jeg har selv en T480 og en Macbook Pro - den gode fra 2015 inden Apple fjernede portene og indførte et dårligt tastattur og lysshow isdetdetfor F-taster.
Fuld build af et velvoksent Dart projekt tager:
- 1.5 - 3 min på Macbook Pro under OSX
- +5 min på T480 under Windows 10
Så det er ikke bare CPU arkitektur til forskel men også anden HW arkitektur, hvor apple bevisligt har nogle dygtige ingeniører.
Og ja OS spiller en rolle men mest under taskswitch / opstart - når først build kører ser det ud til, at Java får ca. lige meget juice på begge platforme
Hvis du vil se sjove ansigtsudtryk på ARM-wizards, skal du bare nævne "Thumb2" :-)</p>
<p>ARM har bestemt problemer, men det er ingenting i sammenligning med de bunker af "Marchitecture" som Intel har fyldt i deres chips.
Selv den første version af Thumb var ikke specielt elegant, der var f.eks. en del redundans, hvilket ikke er godt når formålet er at gøre koden kortere.
Det havde været nemmere og mere elegant at bruge NV (never) condition code til at indkode to 14-bit instruktioner, noget som Sophie Wilson faktisk foreslog. For dem, der ikke er så stærke i ARM instruktionssættet, så er alle instruktioner i 32-bit instruktionssættet betingede med en 4-bit condition code, hvor et af bittene negerer den betingelse, som de tre andre bit indkoder. Negationen af "always" er "never", så der er 2^28 forskellige NOP instruktioner (udover oplagte ting som MOV r0, r0). Acorn havde helt fra starten sagt, at man ikke skulle bruge NV koden som NOP, da det kunne tænkes, at de ville bruge det til noget andet senere. Så at bruge de resterende 28 bit til at indkode to 14-bit instruktioner ville give en pæn forbedring i kodetæthed. Det kræver selvfølgelig, at 14-bit instruktioner skal forekomme i par, men flertallet af instruktioner i gennemsnitlig kode er faktisk simple nok til, at det giver mening.
ARM valgte også, modsat AMD, at lave 64-bit instruktionssættet uden bagudkompatibilitet til 32-bit instruktionssættet, så de kunne lave en del forenklinger. ARM64 minder mere om MIPS end om ARM32. Nogle ARM64 kan godt afvikle 32-bit kode (inklusive Thumb og Thumb2), men man kan ikke frit blande gamle og nye instruktioner, og en del nyere ARM processesorer (inklusive M1) har helt droppet bagudkompatibilitet.
Nu er Apples produkter i forvejen noget mere langtidsholdbare end de fleste andre så det skulle ikke være specielt svært.Yderligere er det sådan at hvis man begynder at producere CPU'er til andre, så skal man til at love dem alt muligt med long term support, kompatibilitet på tværs af hardware revisioner, dokumentation af (næsten) alt, etc.
PHK, gider du skrive hvilken CPU du har i T480? Ellers er det svært at sammenligne merrits fra de enkelte arkitekturer?
Ja M1 er imponerende især for en "første CPU" (i det segment). Performance-mæssigt er den i top - men dog nok ikke over - high end fra AMD/Intel, så den primære forskel er strømforbruget. Og som andre anfører, så har Apple den fordel at de anvender 5nm (først generation fremstillet på EUV) udviklet af TSMC men hvor Apple har haft en eneret siden det udkom for et års tid siden. Hvor Intel er på 14 nm (som ca. svarer til TSMC's 10 nm) i dette segment men dog meget snart (få dage) på hvad der svarer til TSMC 7nm. Men din T480 lyder som om den kunne være yderligere mindst 1 gen bagud i.f.t. bare disse modeller og har måske ikke engang været topmodellen på det tidspunkt, både hvad angår proces og arkitektur samt antal cores. Der er iøvrigt en stor forskel i strømforbrug på 5nm og 7nm så alene her får Apple en stor fordel der ikke kan tilskrives arkitekturen. Selv her et år efter er der lange udsigter til at AMD får adgang til 5 nm (engang langt inde i 2022).
Så når du lægger din CPU's "væren bagud" ift cores, arkitektur og procesteknologi i.f.t. state-of-the-art passer pengene nok.
Når det er sagt, vil Arm formentlig altid have en fordel på strømforbrug i.f.t. AMD/Intel. AMD/Intel er stuck med gigantiske dekodere grundet ekstremt kompliceret ISA med variable længder. Alene at skrive et program der afgør længden af en given instruktion er en større opgave, når der skal udnerstøttelse for de mange prefixes og sære enkodninger som stadigvæk understøttes i fuldt omfang (8/16/32/64-bit, FPU, MMX, SSE1-4, AVX1/2). Den logik skal omsættes til transistorer og kopieres i overlappende udgaver rigtig mange gange i en gigantisk træstruktur, for at CPU'en skal kunne holde en kadence på 5 eller 6 instruktioner per cyklus.
Mit take vedr. M1 er at det til en vis grad er et udtryk for Moore's lov "sløvhed". Alle giganterne er oppe imod samme fysiske begrænsninger, og anvender også stort set de samme tekniker. Dermed har det været muligt for alle (inkl. Apple) at catche op og til dels overhale, ved at få en nærmest eneret på senete teknologi, 5 nm over 1 år før alle andre. Hvor det i mange år kun var AMD og Intel der var i front med et kæmpe forspring, og hele tiden kunne lægge til når konkurrenterne kom med forbedringer.
Glem ikke at Intel prøvede at pushe Itanics uanvendelige instruktionssæt og det var AMD der lavede et 64 bit instruktionssæt til x86 som faktisk kunne bruges til noget.
Tjaa ... Itanium var HP og Intels barn - to kæmper på CPU fronten. Det var et forsøg på at lave et clean break med x86 arkitekturen som mange mente havde nået sit maksimale potentiale. Det var naturligvis også et forsøg på at lave en lukket fest med de pekuniære fordele den slags giver.
Det fejlede eklatant, men der var ikke mange kritiske røster da den kom frem. Det syntes rigtigt for mange at flytte instruktion scheduling fra CPU’en til compileren. Hvorfor bruge tid, strøm og transistorer på at parallelisere sekvenser af instruktioner hver eneste gang CPU’en eksekverer dem når compileren kan gøre det en gang under oversættelsen? Jeg synes stadigvæk det lyder rigtigt også selvom Intel og HP fejlede.
Så måske havde de fat i noget rigtigt men fejlede i eksekveringen. Jeg tænker at et af problemerne var at når compileren skulle kende CPU’en rigtigt godt for at lave optimeret kode, så ville det være svært at videreudvikle hardwaren med dybere pipelines, mere ILP, etc. Måske ville Apple med Rosetta-2, Java JVM, .NET CLR, etc. have nemmere ved at udnytte en CPU arkitektur i stil med Itanium. For der sker oversættelsen en (eller få gange), den kan målrettes den specifikke CPU og der kan indsættes prober i den genererede kode sådan at oversættelsen dynamisk kan forbedres.
Det ændrer selvfølgeligt ikke ved at Itanium blev et gigantisk flop. Men det var ikke et fuldstændigt idiotisk teknologi projekt i stil med Motorolas Iridium projekt eller Microsoft Windows RT. Resultatet af Itanium fadæsen blev x64 instruktionssættet som Apple nu synes at overhale med ARM/M1 …
Jeg ved ikke hvad du vil fortælle med den kommentar. Er bekendt med de nye M1 Pro/Max, men det er stadig ikke en af dem som sidder i Mac Mini og dette blog-indlæg plus sammenligning handler om.
Man skal da også gøre alting selv!
Det er heller ikke 10 kerner, men M1 processoren fra sidste år, med 4 effeciency kerner og 4 Performance kerner. Samme processor som også er i iPad Pro. Tilgengæld er der ingen hyperthreading.
Hvor kom "10 kerner" så fra?
De kom fra den chip som Apple kalder M1 Pro. Se link herunder, langt nede på siden er tabellen: M-series og nederst i den (8+2=10)
Det mest imponerende er cacherne: L1I 192/128kB, L1D 128/64kB; L2 24MB.
Hyperthreading er noget af det først jeg slår fra(cache dræber).
Men tak for (5 minutters) "gåsejagt";-)
Det er heller ikke 10 kerner, men M1 processoren fra sidste år, med 4 effeciency kerner og 4 Performance kerner. Samme processor som også er i iPad Pro. Tilgengæld er der ingen hyperthreading.
Og det mener jeg <strong>faltisk</strong> stadig ...
Kunne Version2 dog bare anvende samme "editor" som ing.dk, hvor man har ca 300 sekunder til at fange den slags. Men det eneste, der fanger her, er bordet >:-(
Det ville klæde PHK, at kvalificere sine observationer med lidt konfigurationsdata om de to platforme, der sammenlignes
Og det mener jeg faltisk stadig. men jeg må meget, meget stærkt beklage den aldeles meningsforstyrende trykfejl, som sneg sig ind:
**begge steder hvor jeg i mit indlæg (#3) skrev 'AMD' skulle der (naturligvis) have stået 'ARM'!
Jeg klebager :-)
Hvis styrkeforholder svarer til chippen i iPhone er der endnu mere power at hente der, og i modsaetning til andre platforme med et API (Metal/Metal Compute) der er til at holde ud at bruge og som man faktisk kan shippe software til.
Enig, menDet ville klæde PHK, at kvalificere sine observationer med lidt konfigurationsdata om de to platforme, der sammenlignes
M1 er ikke en x86 arkitektur fra AMD, men en ARM arkitektur.At AMD har fat i en overlegen ISA (instruction set architecture) har "vi" vidst i mindst 10 år!
En særdeles kompetent chipdesigner begræd at ARM havde vundet markedet for "non-PC's" overfor mig fordi deres design var håbløst. Så måske er det bare at ARM ikke har hele baggagen tilbage til 70'erne.
Hvis du vil se sjove ansigtsudtryk på ARM-wizards, skal du bare nævne "Thumb2" :-)
ARM har bestemt problemer, men det er ingenting i sammenligning med de bunker af "Marchitecture" som Intel har fyldt i deres chips.
Glem ikke at Intel prøvede at pushe Itanics uanvendelige instruktionssæt og det var AMD der lavede et 64 bit instruktionssæt til x86 som faktisk kunne bruges til noget.
Nu er det heller ikke "det Apple vi kender" som går i gang med at designe og producere egne CPU'er...
Det er jeg slet ikke enig i. Hele Steve Jobs tanke var at eje hele kundeoplevelsen sådan at han kunne styre det tæt. I praksis lod det sig ikke gøre tidligere men nu ... Apple har de sidste mange år udviddet deres scope til at dækker meget andet end blot software og design af hardware. Og set i lyset af problemerne med strømforbrug på Intels og AMDs cpu'er så giver det god mening.
Yderligere er det sådan at hvis man begynder at producere CPU'er til andre, så skal man til at love dem alt muligt med long term support, kompatibilitet på tværs af hardware revisioner, dokumentation af (næsten) alt, etc. Som det er nu behøver M1 kun virke nogenlunde. Der kan være fejl gemt alle mulige eksotiske steder som kun OS rammer. Apple behøver ikke fortælle nogen om det ... de kan bare release en sofware patch som workaround.
...kommer til at rykke lige så meget på M1 - jeg går ud fra at næste projekt er at lægge FreeBSD på din nye MacMini.
Nu er det heller ikke "det Apple vi kender" som går i gang med at designe og producere egne CPU'er...Det lyder som et andet Apple end det vi kender. Du får kun rack maskiner med M1 hvis der er et Apple logo på ... og en prisseddel der kan matche det. Men måske kommer andre på ARM fronten med spændende ting ...
Min egen laptop (T480) bruger et minut længere og tre gange så meget effekt.
Tjoo ... at en 4 gammel arkitektur ikke kan følge med kan ikke overraske. Hvis man køber en mere moderne CPU så går det bedre. Der er givetvis også issues omkring RAM og SDD. Men strømforbruget ... der har både AMD og Intel sovet i timen og der bliver det givetvis svært at slå igen.
Men Apple er for stor til den slags og for dyr for Intel at bestikke, så M1 er hvad der sker når sund arkitektur møder kompetente chip-designere.
Men spørgsmålet er om det er fordi den er sund eller bare fordi Apple som sædvaneligt cutter bagudkompatibilitet. Fx. er Intel/AMD's cache conherency strategi meget avanceret men nok også meget dyr. Hvorimod ARM valgte en mere relaxed version.
En særdeles kompetent chipdesigner begræd at ARM havde vundet markedet for "non-PC's" overfor mig fordi deres design var håbløst. Så måske er det bare at ARM ikke har hele baggagen tilbage til 70'erne.
De første svar fra Intel har været ren "Markitecture", som de altid gør, men på et eller andet tidspunkt kommer der sikkert et egentlig modspil, men taget i betragtning at Intel pludselig vil til at lave chips for 3. part kunne godt tyde på at de ikke selv regner med at det kommer lige med det samme.
Intel's 12th gen processorer får big.LITTLE features som burde hjælpe på strømforbrug, men spørgsmålet er om OS og software ikke også skal hjælpe mere til. Desværre går jeg stadigvæk og venter på min nye 11th gen Intel laptop.
Nu mangler vi bare at nogen køber M1 chips hos Apple og laver fornuftige 1U/2U rack maskiner der kører FreeBSD og Linux...
Det lyder som et andet Apple end det vi kender. Du får kun rack maskiner med M1 hvis der er et Apple logo på ... og en prisseddel der kan matche det. Men måske kommer andre på ARM fronten med spændende ting ...
Det ville klæde PHK, at kvalificere sine observationer med lidt konfigurationsdata om de to platforme, der sammenlignes; ellers kunne man tro at det handlede om sammeligning af:
- AMD64 med 10 kerner, 5nm og SSD-lager og
- Intel i7 med 4 kerner,14nm og HDD-lager
Ved bygning af mange små C-filer er det klart, at 10 kerner vinder. At AMD har fat i en overlegen ISA (instruction set architecture) har "vi" vidst i mindst 10 år!
Dit "brok" over UNIX-syscall fejlkoder er mildest talt ikke noget nyt. Sådan har det været længe og det er vistnok en arv fra udviklingsplatformene for 40 (BSD) -50 (SysV) år siden. ;-)
Der er ikke meget "disruption" over det, så længe den ny chip kun er tilgængelig for én enorm markedskraft.
Sagde allerede da de annoncerede m1 chip at det ville ende med at distrupte markedet