Normalement non, Pierre. Un pixel (R, V ou B) donne généralement un pixel image. En revanche, pour pouvoir dématricer et créer une matrice avec un pixel qui représente réellement une couleur (avec du R, du V et du B), on prend effectivement des blocs de pixels. La quantité de pixels pris dépend de la matrice du capteur. Sur un X-Trans, la prédominance des verts oblige à prendre des blocs plus gros et donc des calculs plus importants lors du dématricage (par rapport à une matrice de Bayer par exemple). Avec une matrice de Bayer, on combine généralement le pixel centrale et les 4 voisins (en croix). Sur un X-Trans, on combine la valeur du pixel centrale avec les 9 voisins (en croix plus les diagonales).
En revanche, suivant la quantification des photosites (12, 14 ou 16 bits), on stocke chaque pixel sur 24 bits (8 bit pour le R, 8 pour le V et 8 pour le B).
Enfin, concernant les 200 Mpx du Samsung, il combine plusieurs photos + éventuellement plusieurs capteurs (je n'ai pas étudié en détail comment exactement). Donc, c'est un peu genre pixelshift mais c'est sans doute un peu plus évolué en terme de software/traitement.