[Date Prev][Date Next] [Thread Prev][Thread Next] [Date Index] [Thread Index]

[OT] Es mejor un archivo grande o muchos pequeños



Saludos cordiales.
Antes que nada me disculpo por el OT, pero es que no se donde o como buscar.
El asunto es el siguiente:
Estoy haciendo una aplicación que a su vez tiene varios hilos corriendo a la vez, estos hilos generan cierta informacion que necesito almacenar.
He probado con SQLite, pero tengo problemas ya que algunas (muchas) veces cuando uno de los hilos de la aplicación necesita insertar información en la base de datos falla ya que se encuentra bloqueada por otro hilo.

He subido el timeout pero solo ha mejorado un poco. Tambien tengo algo de temor ya que he leido que la base de datos podria corromporse si en un momento dos procesos escriben a la vez en la base de datos.

Actualmente para este fin uso PostgreSQL, sin ningun problema, pero o que necesito es hacer la aplicacion mas independiente y facil de instalar, configurar, etc.

He pensado en usar XML para cada registro que la aplicacion genera, de este modo ya no hay peligro de corrupcion de datos, como podria suceder en el caso de SQLite.

La Pregunta es la siguiente: es pesado (lento) para el procesador el tener que leer o copiar cientos o miles de archivos individuales, lo pregunto porque me ha pasado que cuando copio alguna carpeta que contiene ciento de archivos, todos menores a 10K, el proceso es muy muy lento.

Espero no molestar mucho con esta pregunta y ojala alguien me pueda dar una idea de que camino seguir.

Gracias y saludos desde Ecuador.

Mis proyectos de software libre en:
Github - edwinspire

Reply to: