Grid computing (w Polsce niekiedy mylnie nazywany siatką komputerową, a poprawnie przetwarzaniem sieciowym[1]) – system, który zarządza zasobami będącymi pod kontrolą różnych komputerów i połączonymi siecią komputerową, używa otwartych protokołów i interfejsów ogólnego przeznaczenia[2] (odkrywania i dostępu do zasobów, autoryzacji, uwierzytelniania) oraz dostarcza usług odpowiedniej jakości (QoS, oferuje usługi wyższego poziomu).
Celem technologii gridowej jest stworzenie prostego, lecz mimo to wielkiego i potężnego, wirtualnego komputera z ogromnej ilości połączonych, niejednorodnych systemów współdzielących różnego rodzaju zasoby. Wyłaniający się standard dla współdzielenia zasobów wraz z dostępnością większych szerokości pasm transmisyjnych stanowią szansę na duży ewolucyjny krok w obliczeniach gridowych. W sensie ogólnym „grid computing” oznacza przetwarzanie danych traktowane jako usługa użyteczności publicznej. Inaczej mówiąc, dla klienta nie jest ważne, gdzie są przechowywane jego dane ani który komputer wykonuje zlecenie. Natomiast koncepcja grid computing widziana od strony usługodawcy oznacza alokację zasobów, współużytkowanie informacji oraz konieczność zapewnienia wysokiej dostępności.
Pojęcia tego jako pierwszy użył Ian Foster, profesor na Uniwersytecie w Chicago, naukowiec pracujący w ANL (ang. Argonne National Laboratory). Idea ta ciągle ewoluuje, znajdowane są nowe obszary jej potencjalnego zastosowania.
Grid jest rozwinięciem idei klastra poza tradycyjne granice domeny.