Alle databaser krever løpende vedlikehold og forvaltning for å opprettholde sin effektivitet og hurtighet . Vi vil utforske flere teknikker som brukes av database ledere for å sikre at deres data er trygge , og deres programvare fortsetter å utføre etter behov. Data Normalisering
Normalisering betyr at alle data i databasen er angitt på samme måte. . Det er avgjørende for funksjonaliteten til databasen , og må være konstant overvåket når en database er rutinemessig oppdatert av hånd -tastet dataregistrering
For eksempel vurdere følgende tre navn : John Smith , Jonathan Smith , Jonathan R. Smith . En menneskelig leser kan forstå at alle tre navnene viser til samme person , så når John Smith kaller ber om en ordre som ble sendt til Jonathan , kan hans behov håndteres på riktig måte . En database , men kan ikke gjøre tilkoblingen mellom disse tre navnene , og vil vurdere dem som tre separate kunder ( med tre separate bestilling historier ) hvis alle tre navn føres for hånd .
Likeledes disse numrene vises det samme: (215) 555-2150 og 215-555-2150 . Men de er ikke den samme til en database, avhengig av hvordan programvaren behandler bindestrek tekststrenger , er det første telefonnummer to ord, men det andre er bare en. Enhver programmatiske skript som velger et område koden ved parsing av ord , for eksempel , vil mislykkes når de vurderer andre tallet
Den beste måten å unngå normalisering problemer er med strenge dataregistrering kontroll : . Enten forhindre en bruker fra å komme inn misdannede data , eller enda bedre, bli at data og reformatere det før det lagres internt. Et telefonnummer feltet kunne kaste bort alt som ikke er en 0 til 9 siffer og legge parenteser og streker - men det må først konvertere eller avvise alfanumeriske telefonnumre som 800-MY-PHONE
Database . fysisk størrelse , RAM bruk og tilgang
Databaser tendens til å vokse over tid , det er vanlig for bedrifter å fokusere på å legge inn nye data inn i dem , men å betale mye mindre oppmerksomhet til destruksjon gamle og ubrukte data ut . Det er sjelden en god idé å kaste gamle data bort , det er alltid mulig at noen avgjørende informasjon i fremtiden vil bli oppnådd ved å samle og analysere siste databasepostene
p Dette betyr at databasesystemet må ta hensyn til . den fysiske størrelsen på databasen lagret på disken. Vanligvis er det viktig å holde en massiv mengde ledig plass overhead på lagringsenheter , på den måten , en rogue skript som tilfeldigvis skaper en million nye rekorder i timen ikke er i stand til å fylle opp en stasjon og forårsake en kritisk database krasj før den kan bli stoppet .
Ledere bør også ta hensyn til hvordan deres første programmering forutsetningene endrer seg over tid, som databaser få store. Søk i databaser trekke data av stasjonen og inn i RAM-minne , noe som skaper et tak for effektive søkealgoritmer , et søk som ble øyeblikkelig over 10 000 poster kan ta timer når antall poster søkte er 250.000. Søk og programmering algoritmer bør testes regelmessig og tidsbestemt, slik at de kan forbedres ved behov mot større datasett.