Vai al contenuto

La mamma è sempre la mamma


M&M

1.217 visite

jeff-wilcox-intel-07-01-2022.jpg.97b95320f711fa8134a6037e6fe01dca.jpg

Jeff Wilcox, artefice dell'architettura M1 di Apple, è tornato ad Intel, dove ha lavorato ad inizio carriera tra il 1997-2007 e poi nel 2010-2013, transitando per nVidia, per poi andare in Apple dove è stato Director of Mac System Architecture per gli ultimi 8 anni.

Torna in Intel come responsabile dello sviluppo di tutti i sistemi desktop (non i server), in concomitanza con l'adozione da parte di Intel dei nuovi processi produttivi su wafer a 7 e successivamente a 3 nm.

Se questo peserà sullo sviluppo dell'architettura M1/M1X di Apple e cosa Wilcox porterà alla società dove ha mosso i primi passi 25 anni fa, non si può sapere.

Ma certo Intel in questo momento è piuttosto agguerrita ed ha certo fatto un'offerta che non si poteva rifiutare.

Insomma, come Nikon che con la Z9 sta richiamando tante pecorelle smarrite, anche Intel è la mamma dalla quale tornare per dimostrare quanto siamo bravi.

Il suo annuncio su LinkedIn

"Dopo otto fantastici anni, ho deciso di lasciare Apple e perseguire un’altra opportunità. È stato un viaggio straordinario e non potrei essere più orgoglioso di tutto ciò che abbiamo realizzato durante il mio soggiorno lì, culminato nella transizione di Apple Silicon con i SOC e i sistemi M1, M1 Pro e M1 Max. Mi mancheranno moltissimo tutti i miei colleghi e amici di Apple, ma non vedo l’ora che arrivi il prossimo viaggio che inizierà il primo dell’anno. Altro sta arrivando!"

 

"Sono lieto di condividere che sto iniziando una nuova posizione come Intel Fellow, COO del Design Engineering Group, architettura SoC per sistemi client presso Intel. Non posso che essere entusiasta di tornare a lavorare con i fantastici team lì per aiutare a creare SOC rivoluzionari. Grandi cose ci aspettano!"

Naturalmente non sono mancati i commenti maliziosi sul web.
Anche da parte di chi crede che dietro la scelta di Wilcox, al di là del nuovo onorario, ci siano limiti nella piattaforma Apple che sarà difficile aggirare.

 

19 Commenti


Commenti Raccomandati

  • Nikonlander Veterano

Io credo che la concorrenza faccia benissimo sia alle aziende sia ai clienti. È lo stimolo ad andare più veloci ed a fare meglio. Da utente Apple convinto, spero sinceramente che Intel tiri fuori al più presto qualcosa che non solo cancelli il gap con gli M1 ma che vada molto più veloce e consumando ancora meno energia. Così Apple ci farà gli M2!!!

Ma occorre sapere che in questi mesi la mia workstation per il fotoritocco è un Mac book AIR M1 con 16Gb di memoria condivisa: il più lento tra gli M1 e pure senza ventole (cioè assoluto silenzio)…. che però… fa volare CaptureOne 😂😂😂😂

Link al commento
  • Nikonlander Veterano

Intel fino alla 11 generazione stava perdendo terreno nei confronti della concorrenza, in primis AMD, pur detenendo ancora una buona fetta di mercato ed avendo venduto, a quanto ho sentito magari qualcuno può smentirmi, più della rivale AMD  ma più per mancanza di prodotti in vendita di quest'ultima che per meriti propri. Con la nuova architettura Alder Lake si direbbe che abbiano aperto la via per il rilancio della 'casa blu' e le nuove cpu dovrebbero aver fatto un bel passo avanti. Cosa può portare questo nuovo innesto in Intel dato che la via è già tracciata?
io spero che lavorino anche dal lato consumi e temperature, apple col suo m1 ha introdotto un chip che consuma poco e scalda altrettanto (mi pare parta da 25° mentre le cpu intel da 50/60° cosa che ha permesso al macbook air ddi rinunciare all'unica ventola mal collegata che aveva ed essere sempre prestante salvo che per utilizzi molto pesanti)

Link al commento
  • Amministratori

Intel sta facendo campagna acquisti da quando è arrivato il nuovo CEO. Ha preso da nVidia, ha preso da TMSC e adesso ha ripreso da Apple.
Se questi uomini che - essendo pochi al mondo - sanno di avere le porte aperte ovunque, hanno deciso di andare a lavorare in Intel, piuttosto che in IBM o in ESS, ci saranno delle ragioni effettive.

Il passaggio ai processi di metallizzazione più spinti - i cui problemi di cambio generazionale sono realmente alla base del ritardo di prestazioni delle ultime famiglie di processori Intel - e l'apertura verso nuovi standard (DDR5, PCIExpress 4, USB 4 etc.) probabilmente stanno creando le condizioni per una ripresa del marchio.

Ripeto, io non sono in grado di confermarlo giacché di Apple conosco (e superficialmente) solo i telefonini e l'orologio - ma i maligni dicono che seppur prestazionali, le nuove architettura M1 di Apple abbiano dei limiti congeniti difficili da aggirare. E può darsi che l'amico Jeff che sa bene i loro segreti, abbia preferito non scontrarsi con un muro e andare dove gli hanno consentito di lavorare su un foglio bianco con aspettative importanti ma con la possibilità di ottenere incrementi elevati partendo da una base meno performante.

Link al commento
  • Nikonlander Veterano

Sicuramente il fatto che sia una big a pieno titolo (anzi, direi la big) ed abbia un bisogno di rilancio sul mercato importante crea le condizioni per avere investimenti e possibilità sia di fare progetti interessanti sia di guadagni significativi. La coppia tra le due cose è molto attrattiva per i manager di alto livello!

Sull’architettura degli M1, così come in altri settori, do poco credito ai pettegolezzi. Quello che so, come ho detto, è che il più piccolo di loro, senza ventola, sa eseguire molto rapidamente un sw da ritocco fotografico. Nessun Intel c’è mai riuscito prima.
I nuovi M1 Max ed M1 Pro sono velocissimi….. vedremo cosa porteranno i futuri M2, che di sicuro supereranno i limiti degli M1.     Francamente io spero che Intel non solo superi gli M1 ma faccia vedere i sorci verdi ad Apple, per riuscire a stare sul mercato nel suo approccio autarchico uguagliando e superando, nel tempo, quello che specialisti come Intel fanno e faranno.
È la competizione che serve. Come sarebbe stata la Z9 se la A1 non fosse esistita?

Link al commento
  • Nikonlander Veterano

Attenzione che il grosso problema di Intel è l'architettura x86 dalla quale fa molto fatica a staccarsi, causa Windows. Ha tantissimo overhead di processi che non riesce a snellire per compatibilità, sta cercando un compromesso per cercare di raggiungere le prestazioni che i processori ARM possono permettersi proprio per una questione di semplicità di architettura. AMD in questo senso è la unica vera rivale, perché deve sottostare ai medesimi problemi di compatibilità, mentre Apple, ed è questa la vera "rivoluzione", di punto in bianco cambiato tutto il paradigma facendo macOS compatibile con ARM. Microsoft non è in grado per mille cause, ma il risultato è che Intel e AMD che hanno in Windows il maggior cliente per distacco, devono adeguarsi. Poi puoi fare tutte le compere che vuoi, pompare i processori con tutti i GHz che riesci a ricavare, ma sarai sempre meno efficiente finché non snellisci la tua architettura e non ti tiri dietro Microsoft in questo...

Link al commento
  • Amministratori

Anche Microsoft sta assumendo ingegneri specialisti nella progettazione di processori perché vuole farsi i suoi.

Nei prossimi anni molte cose saranno diverse.

  • Sono d'accordo 1
Link al commento
  • Nikonlander Veterano
22 ore fa, Massimo Vignoli ha scritto:

...Ma occorre sapere che in questi mesi la mia workstation per il fotoritocco è un Mac book AIR M1 con 16Gb di memoria condivisa: il più lento tra gli M1 e pure senza ventole (cioè assoluto silenzio)…. che però… fa volare CaptureOne 😂😂😂😂

Rispetto a quale altro Mac hai fatto il confronto di velocità? Giusto per avere un riferimento avendo io un iMac 27" Intel.

Link al commento
  • Nikonlander Veterano
1 ora fa, Sakurambo ha scritto:

Rispetto a quale altro Mac hai fatto il confronto di velocità? Giusto per avere un riferimento avendo io un iMac 27" Intel.

Non so se posso o vado troppo OT ma credo che questo possa interessarti!

 

Link al commento
  • Nikonlander Veterano
1 ora fa, Sakurambo ha scritto:

Rispetto a quale altro Mac hai fatto il confronto di velocità? Giusto per avere un riferimento avendo io un iMac 27" Intel.

Io avevo un imac 27" con i7 a 4GHZ e 16gb di ram: il mio macbook air M1 16gb di ram gli corre intorno: parlo ovviamente di SW nativo per M1 e non emulato via rosetta.
Il video di Alberto è di test primordiali, su youtube ce ne sono un mucchio che confrontano varie macchine e vari SW di fotoritocco. Di questi, all'attualità, pare che COne sia quello che va meglio perché a differenza delle ciofeche di Adobe usa meglio i vari core sia di CPU che di GPU ed è qui che il SOC, non dovendo più copiare i dati tra RAM e memoria della scheda video, fa la differenza. 16GB, per questo, sono il massimo che M1 di prima generazione consente ma anche il minimo che serve. In questo c'è il grosso del limite che tratteggia Mauro. Se dovessi comprare ora comprerei una macchina superiore con 32GB (cioè un MacBook Pro). Ma COne su M1 prima serie si ingoia i file della Z9 senza battere ciglio. Di SW Adobe non so che dire: ho disdetto l'abbonamento diversi mesi fa mai installato LR o Photoshop sul M1. Guarda su YouTube.  

  • Mi piace ! 1
Link al commento
  • Nikonlander Veterano
6 ore fa, M&M ha scritto:

Ripeto, io non sono in grado di confermarlo giacché di Apple conosco (e superficialmente) solo i telefonini e l'orologio - ma i maligni dicono che seppur prestazionali, le nuove architettura M1 di Apple abbiano dei limiti congeniti difficili da aggirare. E può darsi che l'amico Jeff che sa bene i loro segreti, abbia preferito non scontrarsi con un muro e andare dove gli hanno consentito di lavorare su un foglio bianco con aspettative importanti ma con la possibilità di ottenere incrementi elevati partendo da una base meno performante.

Scrivo ciò che penso partendo dall'idea che mi sono fatto in questi ultimi anni del progetto M1 anche considerando la scelta di Apple di avere un proprio processore e la scelta di Intel di non fornirgli un processore dedicato. Leggendo qua e là ho quasi capito ciò che è successo ed è solo una questione di core. L'architettura Apple ha necessità di molti core per andare veloce un problema che W10 non ha e W11 ancora meno. Intel avrebbe potuto aprire una linea di produzione per Apple? Anzi, per un centesimo della propria produzione? Certo, a 2000 dollari al pezzo lo avrebbe potuto fare.

Non voglio aprire polemiche, non l'ho mai fatto, ma vista la discussione... penso che Jeff, onorato il contratto, abbia preferito tagliare la corda.

  • Mi piace ! 1
Link al commento
  • Nikonlander Veterano

Può essere, in realtà, e forse è anche corretto da parte Intel: le quote di vendita su Windows sono molto maggiori, fare ad hoc qualcosa fuori linea potrebbe avere costi molto maggiori e poco vantaggioso. Ma resta il fatto che deve recuperare terreno rispetto anche al suo competitor (AMD) e che Windows sta attraversando un periodo di difficoltà, anche se è nascosto abbastanza bene, ma il futuro è smartphone, se non cambia passo verrà soppiantato abbastanza in fretta, informaticamente parlando. Il grosso del mercato PC lo fanno le aziende, che vogliono andare al risparmio, e i gamer, che tra non molto avranno bisogno di poco più di uno schermo, visto che si sta dematerializzando verso datacenter la loro esecuzione (vedi Stadia, GeForce now e il nuovo servizio Xbox...) A quel punto l'utente comune avrà in mano un qualcosa più semplice da usare di un PC, basta attaccarlo ad uno schermo (esistono già, vedi Samsung Dex) e il gioco è fatto, per Windows. Non sono d'accordo invece sul discorso del problema di Apple che funziona meglio con più core... È l'esatto opposto, nel senso che quello è un vantaggio ed è Windows ad essere indietro su questa cosa: molte applicazioni usano più core per girare, migliora notevolmente le prestazioni del sistema e Intel è stata pioniera in questo tra multiforme e multithreading, è Windows che non lo sfrutta al meglio e le applicazioni che si installano lo usano anche peggio! Sempre che non si parli di gaming, dove tutto questo discorso non serve perché meglio GHz di velocità che non multithreading. Ma anche e soprattutto perché il grosso del lavoro lo fanno schede grafiche da paura con centinaia di core... :emoji_love:

Link al commento
  • Nikonlander Veterano
2 minuti fa, Leo ha scritto:

Può essere, in realtà, e forse è anche corretto da parte Intel: le quote di vendita su Windows sono molto maggiori, fare ad hoc qualcosa fuori linea potrebbe avere costi molto maggiori e poco vantaggioso. Ma resta il fatto che deve recuperare terreno rispetto anche al suo competitor (AMD) e che Windows sta attraversando un periodo di difficoltà, anche se è nascosto abbastanza bene, ma il futuro è smartphone, se non cambia passo verrà soppiantato abbastanza in fretta, informaticamente parlando. Il grosso del mercato PC lo fanno le aziende, che vogliono andare al risparmio, e i gamer, che tra non molto avranno bisogno di poco più di uno schermo, visto che si sta dematerializzando verso datacenter la loro esecuzione (vedi Stadia, GeForce now e il nuovo servizio Xbox...) A quel punto l'utente comune avrà in mano un qualcosa più semplice da usare di un PC, basta attaccarlo ad uno schermo (esistono già, vedi Samsung Dex) e il gioco è fatto, per Windows. Non sono d'accordo invece sul discorso del problema di Apple che funziona meglio con più core... È l'esatto opposto, nel senso che quello è un vantaggio ed è Windows ad essere indietro su questa cosa: molte applicazioni usano più core per girare, migliora notevolmente le prestazioni del sistema e Intel è stata pioniera in questo tra multiforme e multithreading, è Windows che non lo sfrutta al meglio e le applicazioni che si installano lo usano anche peggio! Sempre che non si parli di gaming, dove tutto questo discorso non serve perché meglio GHz di velocità che non multithreading. Ma anche e soprattutto perché il grosso del lavoro lo fanno schede grafiche da paura con centinaia di core... :emoji_love:

Lo sapevo che avrei scatenato un casino e il tuo post è solo l'inizioj. L'ultima frase che hai scritto dice tutto "a meno che non si parli di gaming", appunto. Dove velocità e grafica sono sempre al top. E soprattutto dove devono funzionare i sistemi di raffreddamento (cosa che in un portasigarette di alluminio spazzolato è difficile far funzionare).
Come disse un mio caro amico (che casualmente usa Apple anche per accendere il fornello del gas  _ ed è anche la persona che fa l'assistenza ai miei pc) prendendo in mano il mio portatile gaming, testualmente: "E' un piacere maneggiare cose così veloci". E non è neanche di ultima generazione.

Link al commento
  • Amministratori

Attenti che Jeff Wilcox non é tornato in Intel per sistemare l'archivio. La roadmap Intel prevede una rivoluzione ad inizio 2024, processo 20a (20 angstrom).

il resto di cui state parlando riguarda i compilatori, lato software e non é sua competenza (nemmeno lo era in Apple).

Link al commento
  • Nikonlander Veterano

Ma no ma no, che casino... Tieni conto che io ho sempre e solo usato Windows e il mio attuale PC è un Alienware da gaming superpompato 😂

Link al commento
  • Nikonlander Veterano
30 minuti fa, effe ha scritto:

Lo sapevo che avrei scatenato un casino e il tuo post è solo l'inizioj. L'ultima frase che hai scritto dice tutto "a meno che non si parli di gaming", appunto. Dove velocità e grafica sono sempre al top. E soprattutto dove devono funzionare i sistemi di raffreddamento (cosa che in un portasigarette di alluminio spazzolato è difficile far funzionare).
Come disse un mio caro amico (che casualmente usa Apple anche per accendere il fornello del gas  _ ed è anche la persona che fa l'assistenza ai miei pc) prendendo in mano il mio portatile gaming, testualmente: "E' un piacere maneggiare cose così veloci". E non è neanche di ultima generazione.


Enrico, come ti ha detto Leo, la strada del multi core è aperta dal sw che è multithreading - cioè segue più linee di esecuzione contemporaneamente. Un singolo SW lo fa per se (es.: importo 1.000 immagini e le "renderizzo" tutte, a 4 alla volta perchè ho 4 core impiego 1/4 del tempo che farle una alla volta), il sistema operativo lo fa per tutti i sw (es. mentre importo quelle foto ascolto la mia musica, eseguo l'antivirus, scrivo una email.....).
Intel produce processori ben prima di apple e.... da moltissimi anni sono tutti multi core. Il problemi di intel, oggi, sono 2: il primo è che usa l'architettura x86, che non è all'attualità nemmeno lontanamente la più performante (inventata nel 1978). Il secondo è che è rimasta indietro nel processo di miniaturizzazione dei transistor, quindi i suoi processori consumano un pozzo di corrente e per questo producono un mucchio di calore da dissipare, a parità di potenza di calcolo. Questi sono fatti e non opinioni. 

Detto questo:
- non sono esperto di gaming perché faccio altro, per hobby e per lavoro, e delle macchine veloci Apple non ha l'esclusiva. Ma questi M1 hanno fatto, per primi, una cosa che nessuna altra macchina Intel è riuscita a fare prima di loro: hanno messo insieme potenza di calcolo elevatissima con consumo energetico minimale. Ci sta arrivando anche Intel e, come detto, spero che superi Apple e pure di brutto.
- I sistemi di raffreddamento non sono un vanto ma una conseguenza negativa con la quale sei abituato a convivere. Vorresti un telefono con la ventola? o un televisore? ed allora perché pensi che in un portatile - che BTW vorrei usare appoggiato alle gambe senza sudare - sia una caratteristica positiva averne di super potenti? E' evidente che la caratteristica positiva è avere la potenza di calcolo che serve ma senza produrre il calore!
 

Link al commento
  • Nikonlander Veterano

Mauro non ha gettato il sasso nello stagno... ha solo staccato la faglia di San Andreas :lingua:

Massimo ti credo sulla parola, per questo ho impiegato un anno per farmi un'idea. Ma ti assicuro che i gaming non scaldano troppo perchè hanno un sistema di raffreddamento molto efficace e ben progettato (a scapito dello spessore naturalmente e del peso) e inoltre sono dotati di un software che durante gli overclock  aumenta la velocità delle due ventole (CPU e GPU) fino a 6000 giri al minuto ma io non gioco per cui non ne ho mai sentito neanche il sibilo.

 

Link al commento
  • Nikonlander Veterano
3 minuti fa, effe ha scritto:

6000 giri al minuto

Occhio che se dai troppa nitidezza ti decolla dalla scrivania :rotfl:

Enrico, scherzo: non sono un fan di Nikon e figuriamoci di Apple!!!!!

  • Mi piace ! 1
Link al commento
  • Nikonlander Veterano

Beato te! Il mio decolla solo ad accenderlo hahaha! Simona si rifiuta di farmi stare in soggiorno quando faccio foto la sera (figurarsi se dovessi giocare...) altrimenti non sente la tele... 

  • Eccellente, grazie ! 1
Link al commento
  • Nikonlander Veterano
2 minuti fa, Leo ha scritto:

Beato te! Il mio decolla solo ad accenderlo hahaha! Simona si rifiuta di farmi stare in soggiorno quando faccio foto la sera (figurarsi se dovessi giocare...) altrimenti non sente la tele... 

Tanti anni fa avevo una tower con dentro un Pentium serie Conroe, quindi fascia alta, che scaldava come una padella, l'aggravante era la scheda grafica AMD Saffire  che anche lei scaldava di brutto. Alimentatore da 400W una batteria di 2 dischi da 7200 rpm, una ventola per ogni disco. Totale 6 ventole 6, una delle quali in reverse perchè doveva gettare fuori l'aria calda. Quando me ne sono liberato l'intero isolato e piombato nel silenzio. xD

  • Mi piace ! 2
Link al commento
Ospite
Aggiungi un commento...

×   Hai incollato il contenuto con la formattazione.   Rimuovere la formattazione

  Sono consentiti solo 75 emoticon max.

×   Il tuo collegamento è stato incorporato automaticamente.   Mostra come un collegamento

×   Il tuo contenuto precedente è stato ripristinato.   Pulisci editor

×   Non puoi incollare le immagini direttamente. Carica o inserisci immagini dall'URL.

×
×
  • Crea Nuovo...