giovedì 1 febbraio 2018

Applicazioni cloud-native: come crearle secondo nuove prospettive di sviluppo

Applicazioni cloud-native: come crearle secondo nuove prospettive di sviluppo

Il paradigma di progettazione software fondato sulla nuvola, assieme al modello ‘API-first’, libera gli sviluppatori dai vincoli dei server fisici, garantendo loro vantaggi di agilità e praticità: ma usare questi metodi di sviluppo richiede una nuova forma mentis e l’apprendimento di varie conoscenze

Leggi l'articolo completo su ZeroUno



Ormai l’attività di progettazione delle moderne app sta palesemente aderendo al paradigma ‘cloud-native’, un fenomeno alimentato dalla diffusione in questi anni dell’onda d’innovazione del cloud: dopo la sua nascita, i servizi della nuvola si sono febbrilmente evoluti, attraverso ricerca e sviluppo, applicazioni, modelli innovativi in larga parte realizzati dai grandi player e provider globali, come Google, Amazon, Microsoft…

Le applicazioni cloud-native sono progettate e ingegnerizzate apposta per sfruttare appieno la natura dell’infrastruttura cloud: in confronto a quelle tradizionali, che usano server permanentemente designati al loro supporto, le app realizzate per ottimizzare i vantaggi dell’uso della nuvola funzionano affidandosi a una capacità di elaborazione che risulta disaccoppiata dalla rigida appartenenza a specifiche risorse hardware. Questa abilità di astrarre il funzionamento dell’applicazione dal legame con determinati server fisici porta vari benefici: chi sviluppa la app non si deve più preoccupare di amministrare e manutenere l’infrastruttura fisica, risparmia risorse, personale addetto, ha minori rischi e, soprattutto, può finalmente concentrarsi su ciò che per lui realmente conta, cioè lo sviluppo dell’applicazione e delle sue funzionalità. Chi migra verso l’approccio cloud-native per ottenere tutti questi benefici di praticità e convenienza non può però certo prescindere dall’abilità di padroneggiare la tecnologia che sta dietro le quinte di queste sfolgoranti opportunità di business. 

Verso il modello di sviluppo ‘API-first’
Lo sviluppatore che vuol creare applicazioni cloud native deve prima di tutto cambiare mentalità e guardare la progettazione da una nuova prospettiva: basta continuare a pensare che il codice applicativo debba per forza avere accesso diretto alle risorse hardware, come nelle tradizionali applicazioni monolitiche: la nuvola, certo, non avrebbe difficoltà a gestirle, ma creare app moderne, a proprio agio nel cloud, abili nello sfruttare i pregi di un’infrastruttura distribuita, elastica, scalabile a piacimento nell’utilizzo delle risorse IT, è tutta un’altra cosa. 

Continua a leggere su ZeroUno

Blockchain, un pilastro per rendere sicure le trasformazioni digitali

Blockchain, un pilastro per rendere sicure le trasformazioni digitali

In imprese e organizzazioni la sicurezza della ‘catena’ diventa parte integrante di ogni singola digital transformation, indipendentemente dal fatto che si tratti di rendere sicuro un cloud, di autenticare dispositivi mobile o validare interazioni Internet of Things


Leggi l'articolo completo su ZeroUno



Il mondo della tecnologia e del business negli ultimi tempi ha molto discusso sul tema blockchain, sul potenziale innovativo che potrebbe esprimere in varie applicazioni, e non solo nelle transazioni commerciali.

Anche la stampa in questi mesi ne ha approfondito a più riprese le qualità, soprattutto presentando blockchain come la base tecnologica fondante per la nascita e la diffusione della criptovaluta Bitcoin, il cui successo ha generato euforia sui mercati, ma allo stesso tempo diffuso diffidenza sulla possibilità di scoppio della bolla speculativa. Tuttavia, se Bitcoin ha contribuito a rendere più popolare il concetto di blockchain, poco ancora è stato fatto per sensibilizzare e formare gli addetti del comparto IT attorno a un argomento chiave come la sicurezza della blockchain, e dove tale protezione può essere applicata.

Blockchain: i capisaldi da seguire per valorizzarla
Tra i molti ambiti in cui blockchain promette di portare una rivoluzione, ve n’è uno particolarmente importante, ed è il mondo mobile, assieme alle trasformazioni digitali che stanno avvenendo attraverso l’infrastruttura Internet of Things (IoT). Tuttavia, a un’impresa che desideri scoprire se può davvero riuscire a ottenere vantaggi dall’applicazione di blockchain, conviene:

* prima di tutto approfondire meglio come funziona questa tecnologia, e quali sono i suoi punti di forza e debolezza;

* secondariamente, occorrerebbe seguire uno specifico percorso di creazione di un piano di sicurezza per applicare blockchain alla mobile security;

* in terzo luogo non bisognerebbe mai perdere di vista il concetto di community, perché è proprio nell’ambito di tale categoria di utilizzatori che l’adozione della ‘catena’ riesce ad acquisire un senso compiuto. 

Continua a leggere l'articolo su ZeroUno

mercoledì 24 gennaio 2018

CrowdStrike: Conoscere le tecniche del nemico rende la caccia più proattiva

CrowdStrike: Conoscere le tecniche del nemico rende la caccia più proattiva

Con la diffusione dei dispositivi IoT, la pericolosità delle minacce assume risvolti ancor più allarmanti, ma le organizzazioni continuano a non proteggere in modo adeguato gli endopoint

Leggi l'intervista completa su Digital4Trade



È una corsa senza fine quella verso la cybersecurity: non si ha mai in tasca la soluzione definitiva, e non si può mai smettere d’innovare, altrimenti a vincere saranno gli avversari. Così Shawn Henry, presidente e chief security officer di CrowdStrike Services – che abbiamo di recente incontrato a Milano, in occasione di un programma di visite in Italia per incontrare vari utenti e CSO – risponde quando gli si domanda cosa possa significare per i criminali informatici disporre delle ultime tecnologie di intelligenza artificiale (AI). «Come hanno cominciato a usare la potenza del cloud, gli hacker useranno sempre più anche AI e machine learning». Ma, ricorda Henry, una carriera alle spalle come vicedirettore esecutivo all’FBI degli Stati Uniti, adottare la giusta tecnologia per reagire ai cyber-attacchi globali è solo una parte della soluzione, a cui è necessario affiancare corrette policy e processi che aiutino le aziende a diventare più proattive.

Difesa non solida senza proteggere tutti gli endpoint
Non c’è solo la continua crescita di ransomware come WannaCry, in grado di bloccare l’accesso alle informazioni aziendali, o distruggerle: oggi esiste Shodan, il motore di scanning di indirizzi IP che, sfruttando webcam e dispositivi IoT (Internet of Things) privi di adeguate protezioni, permette agli hacker di penetrare con voyeurismo in camere da letto, cucine, garage casalinghi; ma anche in server aziendali, impianti industriali, utility di gestione dell’energia. «Questo tipo di capacità dovrebbe rendere le imprese consapevoli del perché è importante fare il patching del proprio ambiente IT. Ma la realtà è che, ovunque nel mondo, pur adottando tecnologia di ‘defense in depth’ a livello di rete e applicativo, le imprese non si focalizzano a sufficienza sulla protezione degli endpoint».
Questi sono i veri baluardi da presidiare per ottenere più visibilità e consapevolezza di ciò che sta accadendo nel proprio ambiente informatico, dove vanno sì monitorati gli attacchi esterni, ma senza dimenticare di considerare le possibili compromissioni perpetrabili da parte di chi può avere accesso fisico a server e macchine all’interno dell’organizzazione. «Una volta superati i diversi livelli di difesa, attraverso gli endpoint gli avversari si introducono nella rete, che a tal punto possono controllare, assieme ai dati, rimanendo inosservati anche per molto tempo. Il fatto è che oggi, a livello architetturale, le reti non sono abbastanza segmentate: se poi si aggiunge che un altro problema è sviluppare un controllo più raffinato degli accessi e degli account di amministratore, quando gli attaccanti guadagnano queste credenziali, possono ottenere un ingresso completo nell’intera rete. Un altro problema, forse ancora il più comune, è che non si eseguono sufficienti interventi di patching e aggiornamento dell’ambiente IT». 

Leggi l'intervista completa su Digital4Trade

Specialista del data center, come cambiano le competenze

Specialista del data center, come cambiano le competenze

Anche se i moderni centri dati sono infrastrutture IT ibride, dove il cloud acquista un peso sempre maggiore, ciò non sminuisce la centralità dei professionisti IT che governano i processi on-premise. Ai nuovi data center specialist sono però richiesti flessibilità di adattamento alle necessità del business e competenze interdisciplinari

Leggi l'articolo completo su ZeroUno


Il cloud computing resta senza dubbio una delle grandi innovazioni al tempo della trasformazione digitale: ma se far migrare molti carichi di lavoro nella nuvola, per un numero sempre maggiore di organizzazioni, significa alleggerire e ridurre l’infrastruttura di data center locale, i workload che restano on-premise sono spesso i più critici per l’attività imprenditoriale. Al contempo, per contenere i costi, le imprese puntano a ridurre il personale, ma senza penalizzare le prestazioni dei servizi, che, al contrario, devono migliorare. Tutto ciò impone ai nuovi professionisti IT, che intendono collocarsi sul mercato facendosi apprezzare come specialisti di data center, di abbandonare i ruoli tradizionali, più rigidi, per diventare maggiormente flessibili nelle mansioni da svolgere, e arricchirsi di competenze interdisciplinari.

Data center specialist: di cosa si occupa
È vero che ultimamente la trasformazione digitale sta generando nuovi, esotici e inediti, ruoli professionali, tra cui, solo per citarne due, il ‘cloud engineer’ o l’’IT architect’, ma è anche vero che gli specialisti del data center costituiscono ancora la spina dorsale delle attività IT quotidiane, ricoprendo diversi ruoli fondamentali dentro il reparto informatico. Eccone alcuni:

Monitoraggio
Gli specialisti del data center implementano, supportano e utilizzano svariati strumenti di monitoraggio e gestione nelle applicazioni, nei pool di risorse e nelle infrastrutture fisiche; controllano allarmi critici e rispondono agli incidenti quando si verificano. Questi professionisti possono sfruttare gli ‘insights’ di monitoraggio per raccomandare miglioramenti dei processi operativi basandosi su trend: ad esempio, allocare più risorse di storage per un workload che si sta avvicinando ai suoi massimi limiti di memorizzazione.

Integrazione
Gli specialisti del data center assicurano che sistemi, servizi e applicazioni operino assieme, in maniera corretta, attraverso interventi d’implementazione o integrazione. Ciò richiede una solida comprensione delle configurazioni di sistema e delle interdipendenze nei componenti di sistema e applicativi all’interno del data center. Gli specialisti spesso installano e manutengono sistemi, cablaggio e altre infrastrutture, e frequentemente raccomandano miglioramenti a livello di componente che possono far risparmiare denaro e incrementare le prestazioni.

Risoluzione dei problemi
Gli specialisti del data center accedono ai registri di sistema e monitorano i dati per fornire supporto di primo e secondo livello, e risolvere i problemi tramite tecniche di analisi delle cause profonde (root cause analysis – RCA).
Questi specialisti seguono procedure consolidate di gestione degli incidenti, per assicurare che il reparto IT risponda in maniera corretta, comunichi i problemi d’interruzione dei servizi, e attui tutte le azioni successive per garantire che tali problemi vengano propriamente risolti. I data center specialist possono anche raccomandare e implementare misure proattive per mitigare o prevenire problemi ricorrenti.

Collaborazione
Gli specialisti del data center interagiscono strettamente con gli utenti e altri membri dell’IT, attraverso una chiara comunicazione, scritta e verbale, che spesso comporta la creazione di articoli, guide e altri contenuti, indirizzati allo staff IT e agli utenti. La crescita dei paradigmi ‘Agile’ di sviluppo software, come DevOps, enfatizza anche la necessità di collaborazione, per costruire un supporto operativo che abiliti un continuo sviluppo software e costanti cicli di rilascio del codice. 

Configurazione dell’infrastruttura IT: come eliminare gli errori automatizzando la governance

Configurazione dell’infrastruttura IT: come eliminare gli errori automatizzando la governance

Con la diffusione delle infrastrutture enterprise cloud-based, acquista crescente importanza adottare tecnologie di verifica automatica della conformità delle configurazioni rispetto alle policy aziendali e ai requisiti stabiliti

Leggi l'articolo completo su ZeroUno


Oggi le infrastrutture IT delle imprese tendono a diventare sempre più ibride: tuttavia, a prescindere dal fatto che vengano implementate on-premise, nel cloud, o in entrambi questi ambienti, esse devono in ogni caso soddisfare determinati requisiti di conformità con le policy e i criteri di funzionamento stabiliti da ciascuna organizzazione. In fase di dispiegamento delle risorse IT in produzione, capita però spesso che esse non vengano controllate o revisionate con la dovuta frequenza, per assicurare che continuino a operare aderendo ai criteri di compliance con le regole in essere: e sono proprio tali problemi che motivano la necessità di un sistema di governance dell’infrastruttura IT aziendale.

Quali sono i problemi di configurazione dell’infrastruttura IT
Nel mondo delle imprese, un classico problema è rappresentato dagli errori di configurazione dell’infrastruttura IT (configuration drift), che avvengono quando modificazioni impreviste a livello hardware o software creano un ambiente di elaborazione incompatibile con le specifiche implementate manualmente, o attraverso script automatizzati. Può trattarsi ad esempio di cambiamenti manuali eseguiti in ambienti di sviluppo o test che non vengono trasferiti in produzione causando malfunzionamenti; altri effetti del configuration drift possono tradursi nella perdita di memoria in un’applicazione. E se tutti questi difetti non vengono individuati e riparati possono associarsi, arrivando a causare il blocco dei sistemi, come nel caso di un’applicazione che consuma progressivamente memoria, fino a quando non si verifica uno ‘stack overflow’ che provoca il malfunzionamento o il blocco del programma.
Le derive di configurazione si manifestano nel tempo, quando il software è installato, modificato o rimosso, o quando i cambiamenti di configurazione dell’infrastruttura implementati manualmente dallo staff IT non vengono documentati in maniera adeguata per accertare la relativa compliance: ed oggi, con l’emergere di API (application programming interface), container e microservizi che frammentano le tradizionali applicazioni monolitiche in centinaia di piccoli componenti, un mancato completo controllo della loro attività può condurre a configurazioni dell’infrastruttura IT che perdono la conformità con le regole di governance dell’infrastruttura stabilite da un’impresa. 

mercoledì 17 gennaio 2018

Quali server scegliere per ottimizzare i workload del data center

Quali server scegliere per ottimizzare i workload del data center

Riuscire a massimizzare la gestione dei carichi di lavoro nell’infrastruttura IT dipende molto anche da come viene selezionato l’hardware per le macchine fisiche

Leggi l'articolo completo su ZeroUno




Fonte -TechTarget

Più imprese e organizzazioni implementano workload nel cloud pubblico, più i loro data center locali richiedono minori risorse per gestire i carichi di lavoro rimasti on-premise, e diventa un passo naturale, per IT manager e responsabili del business, cercare di estrarre maggior valore e prestazioni dalla capacità rimasta disponibile nel parco server esistente. Ma la convinzione che un server possa davvero andare bene per qualunque applicazione, e che si possa popolare il data center con tanti sistemi ‘white box’, cioè cloni privi di marchio, virtualizzati, ‘clusterizzati’ e capaci di gestire tutti i workload, comincia a essere scalfita da una nuova onda di specializzazione che riguarda le caratteristiche dei server, e che oggi consente di selezionare, o anche confezionare su misura, il cluster di macchine hardware più adatte per soddisfare modelli d’uso specifici. 

Consolidamento di VM, le caratteristiche hardware richieste
La virtualizzazione del server permette di ospitare svariate macchine virtuali (VM) sulla stessa macchina fisica, così da ottimizzare lo sfruttamento delle risorse di elaborazione in essa disponibili.
Il funzionamento delle VM dipende primariamente dalla memoria RAM e dai core del processore, e il numero di quelle che possono risiedere su un dato server varia a seconda di quanta memoria e risorse di elaborazione si allocano per ciascuna VM. In linea di principio, più memoria e core di processore ha il server, più VM può ospitare. In aggiunta, i server destinati a operazioni di elevato consolidamento delle VM dovrebbero anche includere funzionalità di resilienza: ad esempio, alimentatori ridondanti sostituibili a caldo (hot swappable), e memorie resilienti, come DIMM ‘hot swap’ e meccanismi di mirroring delle DIMM.
Un secondo aspetto a cui prestare attenzione quando si sceglie un server su cui eseguire un elevato consolidamento sono le operazioni di I/O (input/output) in rete, perché i workload aziendali scambiano dati, accedono a risorse di storage centralizzate, s’interfacciano con utenti sulla LAN, WAN e quant’altro. Qui i colli di bottiglia possono verificarsi quando diverse macchine virtuali cercano di condividere la stessa porta di rete di fascia bassa: in tal caso, i server con VM consolidate possono trarre vantaggio dall’integrazione di un’interfaccia di rete veloce, come una porta 10 Gigabit Ethernet (GbE), sebbene risulti spesso più economico e flessibile selezionare un server dotato di diverse porte 1 GbE, che sono poi aggregabili per ottenere più velocità e resilienza.

Requisiti per il consolidamento di container

Continua a leggere su ZeroUno

venerdì 12 gennaio 2018

Servizi di colocation: scegliere quelli giusti con i tool di comparazione

Servizi di colocation: scegliere quelli giusti con i tool di comparazione

La disponibilità di strumenti di procurement, come Inflect e UpStack, fornisce interfacce centralizzate che permettono di confrontare prezzi, servizi e caratteristiche di diversi fornitori di colocation, facilitando le decisioni d’acquisto

Leggi l'articolo completo su ZeroUno



Fonte - TechTarget

Anche se il cloud è sempre più diffuso, e in particolare sono in crescita le aziende che si affidano a Infrastrucure as a Service (IaaS), la “vecchia” colocation (un’infrastruttura di data center nella quale un’impresa utente ha la possibilità di affittare spazio per la collocazione dei propri server e di altri apparati IT) non è certo sparita, ma per un’azienda selezionare il servizio di colocation che fa al caso proprio non è un compito facile.

Di norma, il fornitore di colocation, oltre a riservare lo spazio fisico per le macchine, ne gestisce l’alimentazione, il raffreddamento, fornendo sicurezza fisica e banda secondo i termini previsti nel contratto. Tra i vantaggi chiave che stimolano a scegliere la colocation ci può essere la necessità di ridurre i costi capex, associati al fatto di dover costruire, manutenere e aggiornare un grossa server farm, ma c’è anche l’attrattiva di poter sistemare server e apparati IT in un ambiente sicuro, con determinate garanzie di affidabilità, che consentono di ridurre i rischi di malfunzionamento.

Comparare i servizi: trovare le differenze tra le diverse offerte
Nel momento in cui un’organizzazione considera di adottare la colocation, chi ha la responsabilità di selezionare i servizi disponibili, oltre alla necessità di trovare una server farm sul territorio nazionale, dovrà recuperare molte informazioni essenziali: ad esempio, quanto costa il servizio di colocation, qual è la capacità disponibile e pianificata, quali servizi sono forniti, cosa è demandato all’impresa utente, quali sono le politiche di downtime.
Tutti questi dati, tuttavia, possono non essere facilmente reperibili online, talvolta non sono sempre aggiornati. Inoltre, la loro quantità, con formati o unità di misura non sempre omogenei, o chiaramente comprensibili per chi non è tecnicamente esperto, può rendere difficile eseguire una comparazione accurata. Ma non si tratta solo di questo: terminata la fase di raccolta e analisi dei dati, è necessario elaborare una richiesta di proposta (RFP), con un processo che richiede molto tempo, perché occorre raccogliere stime, lavorare in collaborazione con consulenti, rivedere i prezzi e mediare la trattativa con il provider. Ecco perché poter disporre di strumenti di comparazione delle caratteristiche e dei prezzi dei servizi di colocation, che permettono di centralizzare la gestione di tutte queste informazioni, rende più facile per l’utente trovare ciò che cerca, e utilizzarlo prima possibile. 

Continua a leggere su ZeroUno

martedì 19 dicembre 2017

Exascale computing, la scommessa per dominare i big data

Exascale computing, la scommessa per dominare i big data

In questo decennio, il prossimo balzo tecnologico del calcolo ad alte prestazioni assicura che porterà grandi innovazioni nella ricerca scientifica e nelle applicazioni di business: ma ci vorrà un notevole ripensamento delle architetture di computing, facendo i conti con consumi di energia, problemi di memoria, e adottando nuovi paradigmi di elaborazione


Leggi l'articolo completo su ZeroUno
Dai primi, tradizionali supercomputer alle moderne tecnologie di ‘high performance computing’ (HPC), l’elaborazione dati ad alte prestazioni si porta alle spalle una storia lunga decenni. Oggi, tuttavia, la tecnologia HPC torna più che mai d’attualità, e sale alla ribalta, cavalcando la nuova onda d’innovazione di questi anni, che la proietta direttamente verso l’era ‘exascale’, capitalizzando sulle più recenti architetture e tecnologie sviluppate in campo elettronico e informatico. Una stagione, quella exascale, che promette di far diventare i sistemi HPC, da un lato, un pilastro ancor più essenziale in campo scientifico per la ricerca d’avanguardia, e, dall’altro, un fattore chiave in grado, negli anni a venire, di alimentare i prossimi passi della rivoluzione digitale, liberando il potenziale degli algoritmi intelligenti (AI, machine learning, deep learning) in molti settori industriali e imprenditoriali. 

HPC verso gli exaflop
Per HPC si intende l’adozione di ‘supercomputer’, e di evolute tecniche di elaborazione dati parallela, per risolvere problemi di calcolo complessi, in maniera rapida, affidabile, ed efficiente, sfruttando la potenza di analisi, simulazione e modellazione dei dati fornita dai sistemi elettronici. Problemi computazionali che, a causa delle enormi moli di dati in gioco, non sono di norma affrontabili utilizzando i normali computer standard, dotati di una sola CPU, che non non riuscirebbero a gestire tali livelli di elaborazione, o comunque richiederebbero troppo tempo. In effetti, un sistema HPC si può descrivere come un ‘cluster’ di computer, quindi un gruppo di server e altre risorse, strettamente connessi e in grado di funzionare come un singolo sistema, eseguendo elaborazioni in parallelo. Nell’architettura cluster, ciascuna macchina che costituisce la rete di server è un nodo: in ogni nodo (server) le moderne CPU multi-core integrano più unità di elaborazione, i core appunto, capaci di eseguire istruzioni operando in parallelo.
In genere, la potenza di elaborazione di un sistema HPC viene misurata in FLOPS (floating-point operations per second), cioè in operazioni in virgola mobile per secondo. Attualmente, i sistemi HPC più veloci al mondo riescono a operare a velocità che si collocano nell’ordine di grandezza dei petaflops (1015 flops), ossia milioni di miliardi di operazioni al secondo.

Tuttavia, il prossimo traguardo, a cui si arriverà presumibilmente verso il 2020, prevede la realizzazione di macchine ‘exascale’, in grado di raggiungere l’ordine di grandezza degli exaflops ( 1018 flops), cioè miliardi di miliardi di operazioni al secondo. 
Altium Designer 18 porta semplicità e potenza nei progetti multi-board

Altium Designer 18 porta semplicità e potenza nei progetti multi-board

La società di San Diego ha introdotto ufficialmente sul mercato la nuova versione del proprio software di sviluppo per progetti PCB complessi

Leggi l'articolo completo su Elettronica Plus

La funzionalità ActiveRoute in Altium Designer 18


I sistemi elettronici multischeda integrati in progetti compatti, sofisticati e complessi sono ormai all’ordine del giorno nelle attività degli sviluppatori del settore, e in questo ambito c’è sicuramente l’esigenza di riuscire a semplificare e velocizzare il lavoro: una necessità a cui, nella propria area di competenze, ossia la fornitura di strumenti software per la progettazione di PCB (printed circuit board), Altium cerca di dare risposta, attraverso l’introduzione ufficiale della versione 18 del prodotto di punta Altium Designer, già presentata in anteprima a ottobre, in occasione del summit annuale di PCB design AltiumLive 2017.
Altium Designer 18, sottolinea la casa di San Diego, California, è il prodotto più potente, moderno e facile da usare rilasciato fino ad oggi, e la sua realizzazione ha beneficiato del feedback ottenuto direttamente dalla comunità degli utenti, oltre ad essere il frutto della mobilitazione di energie e risorse significative nella ricerca e sviluppo.
La nuova release, dichiara la società, fornisce aggiornamenti chiave e miglioramenti delle prestazioni, assieme a nuove e migliorate funzionalità in grado d’innalzare in maniera ragguardevole la produttività di chi usa lo strumento. 

Interfaccia utente ridisegnata
Un aspetto non certo trascurabile riguarda i miglioramenti apportati all’interfaccia (UI), per potenziare la facilità d’uso.
“L’interfaccia utente è cambiata molto – spiega Ben Jordan, Director, Community Tools and Content in Altium – nel senso che in termini di grafica e ‘look and feel’ siamo passati, dalle tradizionali finestre in stile Windows 7, a un tema di sfondo che io chiamo ‘charcoal’, quindi uno sfondo scuro color carbone, più adatto ai progettisti, che nella maggioranza dei casi lavorano per molte ore davanti allo schermo, e sperimentano un affaticamento e danno visivo nel fissare in modo prolungato sfondi chiari”. 

Continua a leggere l'articolo su Elettronica Plus

mercoledì 13 dicembre 2017

I trend da presidiare nello sviluppo di mobile app

I trend da presidiare nello sviluppo di mobile app

Quando si sviluppano applicazioni per la mobilità, nulla può essere lasciato al caso: è bene mantenersi aggiornati sulle ultime tendenze nel settore, come l’intelligenza artificiale (AI) e l’integrazione dei big data. Ma soprattutto occorre concentrarsi sull’interfaccia della app, che condiziona fortemente la sua utilità e durevolezza


Considerando la velocità di crociera a cui sta procedendo la trasformazione digitale, attualmente sembra non esistere un ambito dell’IT in cui manchino innovazioni continue. E il mondo delle applicazioni mobile, da anni tra le innovazioni chiave della digital transformation, non fa certo eccezione, come testimoniano le sue continue e rapide evoluzioni. Per questo è vitale tenere sempre sotto osservazione gli ultimi cambiamenti in quest’area, a prescindere dal fatto che la propria organizzazione sia di grandi o piccole dimensioni.
Forse in modo ancor più marcato rispetto ad altri ambiti, nel comparto dello sviluppo di applicazioni mobile niente rimane costante per lungo tempo, perché la tecnologia emergente si adatta in fretta in questo ambiente, dove le pratiche di rapida progettazione caratterizzano il software che viene creato. Tra gli aspetti chiave, oggi le imprese sono alla ricerca di applicazioni in grado di funzionare su molteplici piattaforme, e al contempo capaci di conservare un’interfaccia utente (UI) di alta qualità.
Tra l’altro, attualmente gli sviluppatori stanno utilizzando l’intelligenza artificiale (AI) per produrre e integrare big data, potenziando l’esperienza utente e l’integrazione dell’applicazione in spazi di lavoro in precedenza non raggiunti. È la ‘user experience’ (UX) la forza trainante che sta dietro i più recenti trend delle app mobili, anche perché se gli addetti di un’organizzazione non riescono a svolgere il proprio lavoro sull’applicazione a causa di un’interfaccia utente incompatibile o di continui rallentamenti, la produttività viene meno. Perciò, prima il reparto IT e gli sviluppatori fanno propri questi trend chiave dello sviluppo applicativo e li implementano, prima le diverse organizzazioni possono giocare d’anticipo in questo settore. In particolare, sono tre le tendenze fondamentali da tenere sotto controllo e da non trascurare nel campo dello sviluppo di applicazioni mobile.

Trend 1: app multi-piattaforma

Un primo importante aspetto che gli sviluppatori farebbero bene a non sottovalutare in fase di progettazione è la crescente esigenza di applicazioni multi-piattaforma. Da tale punto di vista, un fattore cruciale quando si sviluppano app di questo tipo è dove verranno memorizzati i dati della app, poiché la memoria di storage disponibile sarà differente a seconda del dispositivo. Uno strumento importante sono le piattaforme MADP (mobile application development platform), ossia i software che permettono di costruire e collaudare con rapidità app mobili per smartphone e tablet: le MADP forniscono l’integrazione con le applicazioni di back-end e funzionalità di ’drag and drop’ del codice dei template, eliminando la necessità di scrittura di nuovo codice per le app. Attraverso le MADP, le app sono facili da costruire e possono operare su molteplici piattaforme. Le app ‘cross-platform’ dovrebbero possedere un’interfaccia utente semplificata, in grado di mantenersi inalterata quando la si visualizza su diversi dispositivi e sistemi operativi.
Gli sviluppatori di app mobile possono poi utilizzare linguaggi come JavaScript, C# o HTML5 per creare applicazioni in grado di funzionare bene su diversi dispositivi. L’utilizzo di app multi-piattaforma aiuta le organizzazioni anche a tagliare i tempi di fermo (downtime) e i costi.