A continuación, dejo un vídeo hecho por mí para mostrar algunos aspectos de la parametrización de la Configuración en Odoo 8.0
martes, 21 de junio de 2016
Parametrización de Odoo 8.0 (IV) - Módulo de Compras (Lucía)
A continuación, dejo un vídeo hecho por mí para mostrar algunos aspectos de la parametrización del Módulo de Compras en Odoo 8.0
viernes, 17 de junio de 2016
Parametrización de Odoo 8.0 (III) - Módulo de Recursos Humanos (Lucía)
A continuación, dejo un vídeo hecho por mí para mostrar algunos aspectos de la parametrización del Módulo de Recursos Humanos en Odoo 8.0
miércoles, 15 de junio de 2016
Parametrización de Odoo 8.0 (II) - Módulo de Contabilidad (Lucía)
Vídeo realizado por mí en el que muestro algunas parametrizaciones del Módulo de Contabilidad en Odoo 8.0
martes, 14 de junio de 2016
Parametrización de Odoo 8.0 (I) - Módulo de Ventas (Lucía)
Vídeo realizado por mí en el que veremos algunas parametrizaciones del Módulo de Ventas en Odoo 8.0.
lunes, 6 de junio de 2016
Sobre la instalación de módulos Account Banking Sepa (Lucía)
Si queremos instalar los 2 módulos marcados en la imagen (clickar para ver más grande), tenemos que instalar un módulo llamado Account Banking Sepa - FSDD (Anticipos de crédito). Su nombre técnico es l10n_es_account_banking_sepa_fsdd.
Hay otros 2 módulos de igual nombre, pero que están solo a nombre de Akretion.
martes, 31 de mayo de 2016
lunes, 16 de mayo de 2016
Semana del 9 al 13 de mayo
Día 9:
explicación de tutorial de dolibarr por nuestra compañera Lucia, y configuración de parámetros entre todos.
Día 10:
uso de pentaho para realizar algunas transformaciones
continuación resumen de unidad 4
Día 11:
Realizamos transformaciones en Pentaho
Continuación del resumen de la unidad 4
Día 12:
Realizar curso de Python en Codeacademy
Exposición de la Unidad 1
Día 13:
Trabajamos en Python
Hicimos exposiciones de las Unidades 2 y 3
Video de seguridad en móviles Iphone
explicación de tutorial de dolibarr por nuestra compañera Lucia, y configuración de parámetros entre todos.
Día 10:
uso de pentaho para realizar algunas transformaciones
continuación resumen de unidad 4
Día 11:
Realizamos transformaciones en Pentaho
Continuación del resumen de la unidad 4
Día 12:
Realizar curso de Python en Codeacademy
Exposición de la Unidad 1
Día 13:
Trabajamos en Python
Hicimos exposiciones de las Unidades 2 y 3
Video de seguridad en móviles Iphone
lunes, 9 de mayo de 2016
Cómo averiguar contraseñas guardadas en PC
¡Hola amigos!
En un sencillo tutorial, veremos cómo descubrir las contraseñas que tienen guardadas en el ordenador de nuestros amigos, hermanos, padres... etc.
Paso 1:
Vamos a la web donde se encuentra nuestra codiciada contraseña. Nuestro ejemplo será Facebook, mítico en cuanto a gente que quiere "hackear" las cuentas ajenas de esta red social.
Paso 2:
Hacemos click derecho sobre el recuadro que contiene la contraseña y pulsamos en "Inspeccionar elemento" o de nombre similar (depende del navegador que estemos usando).
Paso 3:
En el recuadro que nos va a aparecer en la parte de abajo o en una ventana aparte (dependiendo del navegador usado), donde está señalizado en azul u otro color más oscuro, buscamos el campo de HTML llamado type="password". Es el que hace referencia a la contraseña, y esto significa en el lenguaje HTML que este campo es de tipo password y que debe ir oculto con los famosos puntos negros. Para "mostrarlo" ante nosotros, hacemos doble click sobre el término password y ponemos en su lugar text, quedando de esta manera --> type="text"
Una vez cambiado el tipo de campo HTML, volvemos a nuestra página original y veremos que en vez de aparecer muchos puntitos negros, nos aparece la contraseña guardada. A partir de aquí, recomiendo encarecidamente un uso adecuado de dicha contraseña, ya que el objetivo de este tutorial es de ayudar en caso de pérdida u olvido de contraseña, o también tener un cierto "control", no el de perjudicar a nadie con estos pasos. No me hago responsable de un uso indebido de este tutorial.
¡Un abrazo, y a cuidarse!
Semana del 2 al 6 de mayo de 2016.
Día 2:
Continuación de la investigación de la unidad didáctica 2
Instalación y configuración de WKhtmltopdf para la extracción de PDF's en Odoo
Explicación de Odoo modulo de Ventas,apartado de contratos
Dia 3:
Seguir con la realización de la unidad 2
Parametrización del correo en odoo (correo entrante y saliente)
Creación de un empleado en el modulo de recursos humanos
Crear un usuario en odoo
Configurar parametros
Dia 4:
Seguimos con la preparación de la unidad 2
Seguimos trabajando en la configuración de correo entrante ya que no funciona la entrada de correos,solo funciona la salida.
Dia 5:
Empezar la unidad 4
Seguimos trabajando en la parametrización de correo entrante para que funcione
Crear un diagrama del proceso de ventas en la aplicación bonita software
Vimos parte de un video de Big Data
Dia 6:
Terminar el diagrama de procesos de ventas en bonita software.
Continuación de la investigación de la unidad didáctica 2
Instalación y configuración de WKhtmltopdf para la extracción de PDF's en Odoo
Explicación de Odoo modulo de Ventas,apartado de contratos
Dia 3:
Seguir con la realización de la unidad 2
Parametrización del correo en odoo (correo entrante y saliente)
Creación de un empleado en el modulo de recursos humanos
Crear un usuario en odoo
Configurar parametros
Dia 4:
Seguimos con la preparación de la unidad 2
Seguimos trabajando en la configuración de correo entrante ya que no funciona la entrada de correos,solo funciona la salida.
Dia 5:
Empezar la unidad 4
Seguimos trabajando en la parametrización de correo entrante para que funcione
Crear un diagrama del proceso de ventas en la aplicación bonita software
Vimos parte de un video de Big Data
Dia 6:
Terminar el diagrama de procesos de ventas en bonita software.
lunes, 2 de mayo de 2016
Semana del 25 al 29 de Abril de 2016
Día 25
Examen teórico y práctico del módulo.
Día 26
Corrección del examen teórico.
Empezamos con Python en Codeacademy.
Vimos un video documental de la Empresa ZARA
Día 27
Práctica en Python.
Exploramos la página de GIBHUB OCA en España.
Trabajamos en Odoo.
Día 28
Práctica en Python.
Parametrización en Odoo.
Instalación de móulo de los Bancos de España.
Día 29
Expocision de nuestro compañero Lechi acerca de instalar Odoo en Mac usando la página de Bitnami.
Configuración de algunos aspectos de la sección de Ventas en Odoo.
Examen teórico y práctico del módulo.
Día 26
Corrección del examen teórico.
Empezamos con Python en Codeacademy.
Vimos un video documental de la Empresa ZARA
Día 27
Práctica en Python.
Exploramos la página de GIBHUB OCA en España.
Trabajamos en Odoo.
Día 28
Práctica en Python.
Parametrización en Odoo.
Instalación de móulo de los Bancos de España.
Día 29
Expocision de nuestro compañero Lechi acerca de instalar Odoo en Mac usando la página de Bitnami.
Configuración de algunos aspectos de la sección de Ventas en Odoo.
viernes, 29 de abril de 2016
Instalación de Pentaho 6.1.0.1 en Linux 64 bits (Lucía)
A continuación os dejo el tutorial en forma de presentación.
jueves, 28 de abril de 2016
Limpiar caché en Linux (Lucía)
Comandos para limpiar caché en Linux:
sudo su
sync; echo 3 > /proc/sys/vm/drop_caches
sudo su
sync; echo 3 > /proc/sys/vm/drop_caches
miércoles, 27 de abril de 2016
RESUMEN SEMANA DEL 18 AL 22 DE ABRIL
Día 18
- Explicación de la unidad 8.
- Investigación de herramientas de almacenamiento de la información.
- Explicación de la Arquitectura de Data Warehouse.
Día 19
- Evaluación.
- Terminar de publicar la investigación del día anterior en el blog.
- Hacer un gráfico de una arquitectura data warehouse con los requerimientos dados.
Día 20
- Explicación de las bases de datos multidimensionales.
- Exposición del grafico realizado por cada alumno.
- Con la repartición de las tareas del cuadrante mágico de Gartner
Día 21
- Descarga de Pentaho
Día 22
- Instalación de Pentaho
- Exportar un archivo plano
- Explicación de la unidad 8.
- Investigación de herramientas de almacenamiento de la información.
- Explicación de la Arquitectura de Data Warehouse.
Día 19
- Evaluación.
- Terminar de publicar la investigación del día anterior en el blog.
- Hacer un gráfico de una arquitectura data warehouse con los requerimientos dados.
Día 20
- Explicación de las bases de datos multidimensionales.
- Exposición del grafico realizado por cada alumno.
- Con la repartición de las tareas del cuadrante mágico de Gartner
- Empresas Opensource
- Birst
- Logi Analytics
- Information Builders
- Tibco Software
- Afteryx
- Panorama software
- (Entre otros...)
Día 21
- Descarga de Pentaho
Día 22
- Instalación de Pentaho
- Exportar un archivo plano
viernes, 22 de abril de 2016
Como instalar Pentaho 6 en Ubuntu 14(Linda)
Primero descargo el archivo en la página de Pentaho, elegir la versión Data Integration para Linux.(para descargarlo debo registrarme, me da un uso de 30 días)
Me descarga un archivo bin , en mi caso se ha guardado en la carpeta de Descargas.
Ahora voy a la consola para poder ejecutarlo, primero debo transformar el archivo para que sea ejecutable , escribo la siguientes lineas de comando:
sudo su (para entrar al root)
Entro a la carpeta donde esta el archivo:
cd Descargas (en mi caso esta es la carpeta donde se encuentra)
Darle permisos de ejecución a dicho archivo con el siguiente comando:
A continuación saldrá ya la ventana para empezar a instalarlo y seguimos sus indicaciones.
Me descarga un archivo bin , en mi caso se ha guardado en la carpeta de Descargas.
Ahora voy a la consola para poder ejecutarlo, primero debo transformar el archivo para que sea ejecutable , escribo la siguientes lineas de comando:
sudo su (para entrar al root)
Entro a la carpeta donde esta el archivo:
cd Descargas (en mi caso esta es la carpeta donde se encuentra)
Darle permisos de ejecución a dicho archivo con el siguiente comando:
sudo chmod a+x nombre_archivo.bin (si se trata de un archivo con extensión .bin) ó $ sudo chmod a+x nombre_archivo.sh (si se trata de un archivo con extensión .sh)
Posteriormente ya podrás ejecutar el archivo:
$ sudo ./nombre_archivo.bin o $ sudo sh nombre_archivo.bin (si se trata de un archivo con extensión .bin) ó $ sudo ./nombre_archivo.sh o $ sudo sh nombre_archivo.sh (si se trata de un archivo con extensión .sh)
A continuación saldrá ya la ventana para empezar a instalarlo y seguimos sus indicaciones.
jueves, 21 de abril de 2016
Qué es el cuadrante mágico de Gartner? Business Intelligence(Linda)
El Cuadrante Mágico de Gartner es una representación gráfica de la situación del mercado de un producto tecnológico en un momento determinado. El gráfico está dividido en cuatro partes dónde se distribuyen las principales compañías en función de su tipología y la de sus productos.
Posiciones que Ocupa cada Actor en el Mercado BI
Según la posición que ocupa cada actor del mercado BI en el Magic Quadrant , se determina su nivel de competitividad.
Es necesario tener en cuenta que todas estas posiciones pueden variar año tras año.
En función de la definición que Gartner nos brinda para cada posición en el cuadrante, se puede decir:
- líderes (leaders): aquellos que tienen la mayor puntuación resultante al combinar su habilidad para ejecutar (lo bien que un vendedor vende y ofrece soporte a sus productos y servicios a nivel global) y el alcance de visión, que se refiere a su potencial.
- aspirantes (challengers): caracteriados por ofrecer buenas funcionalidades y un número considerable de instalaciones del producto, pero sin la visión de los líderes.
- visionarios (visionaries): estos pueden tener todas las capacidades que ha de ofrecer un ECM de forma nativa, o mediante alianzas con otros socios, lo cual significa un fuerte impulso a la integración de programas y plataformas así como una habilidad para anticiparse a las necesidades del mercado que ellos no puedan cubrir.
- nichos específicos (niche players): enfocados a determinadas áreas de las tecnologías ECM, pero sin disponer de una suite completa.
Cuadrante de Gartner (leaders) (Lucía)
ANÁLISIS DE OPEN SOURCE.
Los líderes de mercado de las BI tradicionales están siendo interrumpidas por las plataformas que amplían el acceso a la analítica y tienen un mayor valor de negocio. A continuación presento todos los leaders del Cuadrante Mágico de Gartner.
Alteryx → NO
- Es el software de data blending y advanced analytics. Alteryx Analytics está posicionada como compañía visionaria e innovadora del cuadrante mágico de Gartner, proporciona análisis con un flujo de trabajo intuitivo para data blending, y análisis avanzado que llevan a una visión más profunda de los datos en pocas horas. Cabe destacar que la plataforma de análisis Alteryx ofrece una fusión de datos interna, de terceros y de la nube, para luego analizarla utilizando herramientas “drag-and-drop”. Todo esto se realiza en un solo flujo de trabajo, sin necesidad de programación.
Birst → NO
- La tecnología de análisis en 2 niveles patentada de Birst permite a los equipos centralizados y descentralizados trabajar en colaboración con la unificación de TI gestionando datos de la empresa con los datos generados por el usuario, automatizando el proceso de refinado y preparando una vista única de todos los datos.
Board International → NO
Datawatch → NO
- Datawatch Corporation es una compañía americana de software que manufactura y vende plataformas analíticos que permiten a los usuarios / empresarios manejar sus datos y crear visualizaciones interactivas con ellos. La compañía está enfocada a la preparación de datos, BI y al descubrimiento de datos visuales. Datawatch Corporation está comprometida en el diseño, desarrollo, manufactura, marketing y el soporte de software para ordenadores empresariales para el análisis y reporte operacional de datos, integración de los mismos, manejo de contenidos empresariales y del mercado de servicios empresariales. La tecnología de Datawatch se basa en cubos de memoria OLAP, que se muestran a través de series de visualizaciones, incluyendo mapas de árboles. Esto permite al usuario cargar datos, seleccionar variables y estructuras jerárquicas, y navegar a través de las visualizaciones resultantes, filtrar, enfocar y reordenar, para identificar valores atípicos, correlaciones y tendencias.
GoodData → NO
IBM → NO
Information Builders → mitad/ http://www.informationbuilders.com/news/press/release/2010/4178
Logi Analytics → NO
- Es una empresa que se dedica al análisis de datos a gran escala dentro de las empresas. Ofrecen el continuo autoservicio en todo a las necesidades de la empresa y empoderan a todos en la empresa para entender los datos compartir ideas y tomar decisiones informadas.
Microsoft → NO
MicroStrategy → NO
- Es un proveedor de servicios en nube y software móvil para Business Intelligence. Está situada en Washington D.C. y fue fundada en 1989 por Michael J. Saylor y Sanju Bansal. Lleva a cabo el análisis de una gran variedad de datos. Es uno de los pocos proveedores independientes del sector y desarrollo productos enfocados a sus 4 plataformas llamadas Analytics, Mobile, Identity y Royalty, y por orden son los siguientes: MicroStrategy Analytics, MicroStrategy Mobile, Usher and Alert.
OpenText (Actuate) → SI
Oracle (Oracle Business Intelligence 12c) → NO
Panorama Software → NO
- Es una compañía procedente de Canadá, especializada en Business Intelligence. Fue fundada por Rony Ross en Israel en 1993, y desde 2003 está situada en Canadá. Su producto principal es la suite de Business llamada Panorama Necto.
Pentaho → SI
- Es un conjunto de programas libres para generar inteligencia empresarial (Business Intelligence). Se define a si mismo como una plataforma de BI orientada a la solución y centrada en procesos que incluye todos los principales componentes requeridos para implementar soluciones basados en procesos y ha sido concebido desde el principio para estar basada en procesos. Las soluciones que Pentaho pretende ofrecer se componen fundamentalmente de una infraestructura de herramientas de análisis e informes integrado con un motor de workflow de procesos de negocio. Incluye herramientas integradas para generar informes, minería de datos, ETL, etc. Fue fundada en 2004 por 5 miembros, y adquirida por Hitachi Data Systems en 2015. Sigue un modelo de negocio basado en open core. Nos proporciona 2 ediciones diferentes de Pentaho Business Analytics; una edición comunitaria (community) y una edición empresarial (enterprise). Esta última es un modelo pago con suscripción anual. La edición comunitaria es libre y de código abierto, bajo la licencia GNU General Public License.
Prognoz → NO
- Es una compañía situada en Perm (Rusia), que desarrolla software de tipo Business.
Pyramid Analytics → NO
Qlik → NO
Salient Management Company → NO
SAP → NO
SAS → NO
Tableau → NO
Targit → NO
Tibco Software → NO en parte / http://www.tibco.com/company/news/releases/2014/tibco-software-acquires-jaspersoft
- Gartner posicionó a la plataforma TIBCO como líder en el cuadrante mágico, ya que proporciona un conjunto completo de soluciones de integración. La plataforma TIBCO permite a las organizaciones hacer frente a estos nuevos retos, disminuyendo el tiempo de respuesta para sus iniciativas empresariales y abrazando una plataforma confiable y probada.
Cuadrante de Gartner (niche players)Linda
Niche
Players
GoodData(Privado)
GoodData
es un software de inicio privado , es una compañía americana de
software con sede en San Francisco, CA .
La
compañía es conocida por su inteligencia de negocios (BI) y Big
Data Analytics plataforma basado en la nube . A partir de 2014,
GoodData ofrece su software a 30.000 empresas.
GoodData
es una plataforma de servicio de inteligencia de negocios que
combina los datos internos y / o externos de una organización (tanto
estructurados como no estructurados) para obtener beneficios
económicos de datos.
Pirámide
Analytics
Pirámide
Analytics
es una compañía internacional de software con sede en Ámsterdam,
Países Bajos, con oficinas en Seattle, Tel Aviv, Londres y París.
es un conjunto de análisis de negocio basado en la web para el
análisis, cuadros de mando, informes y extracción de datos diseñada
para la toma de BI en la nube.
Prognoz
(privado)
Prognoz
es una empresa privada con sede en Perm , Rusia que se desarrolla
negocio de software . El software de la empresa se clasifica habitualmente en los de
inteligencia de negocio o la gestión de procesos de negocio
segmentos de mercado.
Aplicación
de software principal de la empresa es la Plataforma Prognoz . La Plataforma Prognoz es una plataforma de BI de última generación
para la construcción de sistemas de información.
Plataforma
Prognoz es una solución de inteligencia de negocio completamente
integrado que ofrece a los usuarios finales herramientas intuitivas
que tienen capacidades analíticas extensas.
Los
usuarios son capaces de realizar análisis OLAP utilizando cuadros de
mando características como gráficos, mapas, medidores y tablas.
También son capaces de crear y enviar informes, analizar series
temporales ', el modelo y el pronóstico, y crear cuadros de mando.
Targit
Targit
Decision Suite es la única plataforma de business intelligence que
ofrece herramientas visuales de data discovery, business analytics
self-service, informes e increíbles cuadros de mando en una única
solución integrada.
Experimenta
la sinergia entre los empleados de cada departamento, tus sistemas y
tu software.
Targit
respalda el proceso de toma de decisiones en un mundo que está
cambiando más rápido que nunca.
Targit
es el mayor desarrollador de inteligencia de negocios y software de
análisis de Dinamarca, y también es el principal proveedor de
software empresarial de Dinamarca.
Pentaho
(Open
Source)
Pentaho
BI Suite
es un conjunto de programas
libres para generar inteligencia empresarial (Business Intelligence).
Incluye herramientas integradas para generar informes, minería de
datos, ETL,
etc. Versión estable 2014 5.2
Pentaho
se define a si mismo como una plataforma de BI “orientada a la
solución” y “centrada en procesos” que incluye todos los
principales componentes requeridos para implementar soluciones
basados en procesos y ha sido concebido desde el principio para estar
basada en procesos. Las soluciones que Pentaho pretende ofrecer se
componen fundamentalmente de una infraestructura de herramientas de
análisis e informes integrado con un motor de workflow de procesos
de negocio. La plataforma será capaz de ejecutar las reglas de
negocio necesarias, expresadas en forma de procesos y actividades y
de presentar y entregar la información adecuada en el momento
adecuado.
Su
modelo de ingresos parece estar orientado a los servicios (soporte,
formación, consultoría y soporte a ISVs y distribuciones OEM)
aunque en alguno de los documentos y páginas que hemos examinado
aparece mencionado algunas funcionalidades “Premium” que hacen
pensar en ingresos por futuras versiones o funcionalidades de pago.
En
su web presenta una organización por productos: Reporting, Analysis,
Dahsboards y Data Mining, acompañado por dos introducciones: a la
plataforma y a los productos. En dichas introducciones se hace
mención específica al workflow como una de las capacidades BI
claves de la plataforma.
Pentaho
Analysis Services:
cuyo nombre código Modrian es un servidor OLAP (procesamiento
analítico en línea) escrito en Java. Es compatible con el MDX
(expresiones multidimensionales) y el lenguaje de consulta XML para
el Análisis y especificaciones de la interfaz olap4j.
Pentaho
Reporting:
Consiste en un motor de presentación, capaz de generar informes
programáticos sobre la base de un archivo de definición XML. Sobre
esta solución se han desarrollado muchas herramientas, por ejemplo
informes, diseñadores de interfaz gráfica de usuario, y asistentes
tipo wizard. Un uso notable de esta herramienta es el Generador de
informes para OpenOffice.org
Pentaho
Data Mining:
Es una envoltura alrededor del proyecto Weka. Es una suite de
software que usa estrategias de aprendizaje de máquina, aprendizaje
automático y minería de datos. Cuenta con series de clasificación,
de regresión, de reglas de asociación, y de algoritmos de
clustering, para así apoyar las tareas de análisis predictivo.
Pentaho
Dashboard:
Es una plataforma integrada para proporcionar información sobre sus
datos, donde se pueden ver informes, gráficos interactivos y los
cubos creados con las herramientas Pentaho Report Designer.
Pentaho
para Apache Hadoop:
Es un conector de bajo nivel para facilitar el acceso a MUY grandes
volúmenes manejados en el proyecto Apache Hadoop, la Suite de
Pentaho BI para Hadoop permite abordar los mayores desafíos que
experimentan los usuarios de Hadoop -, sobre su empinada curva de
aprendizaje técnico, la falta de personal técnico cualificado y la
falta de disponibilidad de las aplicaciones de desarrollo y
despliegue para llevar a cabo la integración de datos e inteligencia
de negocios con Hadoop.
Board
International.(Privado)
BOARD
International SA es una de Business Intelligence (BI) y gestión del
rendimiento corporativo (CPM)
de software proveedor conocido por s juego de herramientas . La
compañía tiene su sede en Lugano , Suiza , donde fue fundada en el
año 1994. Si bien sus mercados principales se encuentran todavía en
Europa, junta internacional ha estado expandiendo mundialmente y
ahora opera en 15 países de todo el mundo. Se tiene un total de más
de 2.500 clientes de un número de diversas industrias.
Yellowfin
(Privado)
Yellowfin
es una inteligencia de
negocio (BI), tablero de instrumentos , la presentación de informes
y análisis de datos de proveedores de software. El software de aleta
amarilla permite la presentación de informes a partir de datos
almacenados en bases de datos relacionales, cubos multidimensionales
o en memoria bases de datos analíticos. Con sede en Melbourne ,
Australia , la compañía fue fundada por un equipo de veteranos de
la industria de inteligencia de negocio.
En
2008, MIS Magazine reconoció Yellowfin
con la inclusión en su lista de las 100 empresas estratégicas
internacionales para 2008.
En
mayo de 2011, Yellowfin,
ha sido reconocido entre los proveedores de BI de élite del mundo,
superando a jugadores establecidos y proveedores de BI de código
abierto en los últimos Dresner Advisory Services "sabiduría
de las multitudes de estudio Negocios Inteligencia de Mercado".
Datawatch
Datawatch
Corporation
es una compañía de software estadounidense que fabrica y vende una
plataforma de análisis gestionado que permite a los usuarios de
negocios para preparar sus datos y para crear visualizaciones de
datos interactivas. La empresa cuenta con un enfoque en la
preparación de datos, inteligencia de negocio, y el descubrimiento
de datos visuales.
Datawatch
Corporation se dedica al diseño, desarrollo, fabricación,
comercialización y soporte de software de negocios principalmente
para la generación de informes operativos y análisis de datos,
integración de datos, los mercados de gestión de servicios
empresariales y de gestión de contenidos empresariales.
La
tecnología de Datawatch se basa en en memoria OLAP ( Online
Analytical Processing cubos), que se muestran a través de una serie
de visualizaciones incluyendo diagramas de árbol. Esto permite al
usuario cargar datos, seleccione las variables y las estructuras
jerárquicas, y navegar a través de la visualización resultante, el
filtrado, el zoom y la perforación (a veces llamado reordenamiento),
para identificar valores atípicos, correlaciones y tendencias.
Su
transmisión de OLAP aplicación lleva un cubo OLAP en memoria y
permite que los datos pueden fluir a través de él. Esta combinación
hace que los productos de la compañía atractivo para los verticales
de la industria que requieren datos en vivo, tales como datos del
mercado financiero, monitoreo de red de suministro eléctrico y
análisis de tráfico de la red de telecomunicaciones. Esto es muy
diferente que la gran mayoría de OLAP implementaciones en las que
los cubos se vuelven a generar periódicamente para nuevos lotes de
datos.
Datawatch
ofrece tres productos principales: Diseñador
Datawatch,
Datawatch
Server
y Monarch
.
Salient
Mangement company
La
plataforma de gestión de la empresa saliente, el Intelligence Suite
de Colaboración, abarca todas las formas de inteligencia de negocio
- desde la extracción de datos para el análisis de información
para la creación de cuadros de mando a los informes de uso
compartido y la colaboración con otras personas. Saliente ha hecho
de esta plataforma fácil de usar, escalable y disponible para todos
los usuarios dentro de una empresa.
Vamos
a discutir cada función que conforma esta plataforma:
La
integración de datos - Saliente acepta datos de una variedad de
fuentes, tales como Web, datos de terceros, ETL, y ERP. Sin embargo,
Saliente ofrece su herramienta ETL patentada llamada saliente de la
ETL. La herramienta ETL saliente permite a los usuarios incorporar
datos a través de la tecnología de arrastrar y soltar. Esta es una
buena herramienta para las empresas que tienen una gran cantidad de
datos para analizar. Los tres pasos en el uso de esta herramienta
consiste en el diseño basado en la inteligencia objetivo de negocio
de datos de origen de mapeo para la automatización de las
actualizaciones de fuentes de datos.
Tecnología
de datos - Con su Analytical Data Mart, Saliente permite la
escalabilidad y rápidas consultas - según los informes, ejecutar
una consulta en 3 segundos o menos. También puede almacenar grandes
cantidades de datos en menos espacio, y también reduce las tareas de
procesamiento de Integración y que consumen mucho tiempo.
Visualización
- herramienta de minería de datos visual del Saliente, la estación
de trabajo analítico, permite a los usuarios ver todos los tipos de
datos en tiempo real, información y relaciones en un solo lugar.
Esta herramienta viene con más de 30 tipos de visualización y tabla
de pre-construidos. Los usuarios también pueden crear guiones
gráficos para guiar a otros en el proceso analítico. Los usuarios
también pueden filtrar los datos en función de la configuración
específica - esta herramienta guarda automáticamente estos ajustes.
Los usuarios también pueden crear macros y enviarlas al correo
electrónico, a carpetas, en el poste en una intranet de la compañía
- macros incluso se pueden exportar a Excel.
Cuadros
de mando se pueden explorar - Como su nombre lo explica, los usuarios
pueden crear cuadros de mando se pueden explorar - mediante la
perforación más profunda en los datos y responder a cualquier
información procesable rápidamente. Esta herramienta proporciona
detallados El número ilimitado de opciones, simple arrastrar y
soltar funcionalidad, y permite a los usuarios profundizar en los
paneles publicados. Los usuarios pueden compartir cuadros de mando e
informes a la Web - y pueden acceder a cuadros de mando a través de
sus dispositivos móviles. Tenga en cuenta que Saliente está
planeando introducir aplicaciones en 2014 para iOS y dispositivos
Android, incluyendo un modo sin conexión.
Knowledge
Manager - La funcionalidad de Knowledge Manager funciona como una
herramienta de redes sociales ya que permite que otros usuarios
colocar sus comentarios, imágenes y otros datos a la derecha en los
cuadros de mando. Los usuarios también pueden compartir paneles en
una variedad de formas y formatos - desde vídeos a enlaces a
presentaciones de diapositivas de los archivos PDF y documentos de
Word.
Opent
Text(Actuate)Open Source
OpenText
es líder en gestión de la información empresarial, ayudando a los
clientes para crear un primer Digital Mundial mediante la
simplificación, la transformación, y la aceleración de sus
necesidades de información. Más de 100.000 clientes ya utilizan
soluciones OpenText, ya sea en local o nuestra nube.
Productos
y servicios.
Ofrece
tres tipos de herramientas de información, que permiten a cada uno
de los desarrolladores integrar fuentes de datos y el diseño de sus
propios informes con ideas personalizables.
BIRT
Designer es un software de presentación de informes de forma libre
que trabaja en un entorno de desarrollo integrado de código abierto.
BIRT
Designer Pro ofrece informes de nivel empresarial que incluye
características especiales para los informes de negocio y
aplicaciones interactivas.
BIRT
Studio es una herramienta de auto-servicio, que incluye capacidades
de informes ad-hoc y una herramienta de visualización diseñado
específicamente para los no expertos.
También
tenemos:
BIRT
Analytics es un software de auto-servicio para los analistas de
negocios que quieran realizar sus propios análisis predictivo de
comportamiento de los clientes y los patrones de compra utilizando
cualquier fuente de pequeñas o grandes volúmenes de datos,
incluyendo la actividad de los medios sociales, para mejorar la
participación del cliente.
martes, 19 de abril de 2016
¿Qué es el ETL? Esto y más cuestiones de Data Warehouse. (Lucía)
¿Pero qué es ETL?
Es el acrónimo de Extract, Transform, Load (Extracción, transformación y carga). Es el proceso que permite a las organizaciones mover datos desde diversas fuentes, reformatearlos y limpiarlos, y cargarlos en otra base de datos o Data Warehouse para analizar, o en otro sistema operacional para apoyar un proceso de negocio.
¿Cómo se realiza este proceso?
EXTRAER
La extracción se realiza desde los sistemas de origen. La mayoría de los proyectos de almacenamiento de datos fusionan datos provenientes de diferentes sistemas de origen. Cada sistema separado puede usar una organización diferente de los datos o formatos distintos. Normalmente se encuentran en bases de datos relacionales o ficheros planos, pero pueden incluir bases de datos no relacionales u otras estructuras diferentes. Convierte los datos a un formato preparado para iniciar el proceso de transformación. En el proceso podemos analizar los datos extraídos, de lo que resulta un chequeo que verifica si los datos cumplen la pauta o estructura que se esperaba. De no ser así son rechazados.
Un requisito importante es que la extracción cause un impacto mínimo en el sistema origen. Si los datos a extraer son muchos, el sistema de origen se podría ralentizar e incluso colapsar, provocando que éste no pueda utilizarse con normalidad para su uso cotidiano.
TRANSFORMAR
Es la fase que aplica una serie de reglas de negocio o funciones sobre los datos extraídos para convertirlos en datos que serán cargados. Algunas fuentes de datos requerirán alguna pequeña manipulación de los datos. En otros casos pueden ser necesarias aplicar algunas de las siguientes transformaciones:
- Seleccionar sólo ciertas columnas para su carga (por ejemplo, que las columnas con valores nulos
no se carguen).
- Traducir códigos (por ejemplo, si la fuente almacena una "H" para Hombre y "M" para Mujer pero
el destino tiene que guardar "1" para Hombre y "2" para Mujer).
- Codificar valores libres (por ejemplo, convertir "Hombre" en "H" o "Sr" en "1").
- Obtener nuevos valores calculados (por ejemplo, total_venta = cantidad * precio, o Beneficio =
PVP · Coste).
- Unir datos de múltiples fuentes (por ejemplo, búsquedas, combinaciones, etc.).
- Calcular totales de múltiples filas de datos (por ejemplo, ventas totales de cada región).
- Generación de campos clave en el destino.
- Transponer o pivotar (girando múltiples columnas en filas o viceversa).
- Dividir una columna en varias (por ejemplo, columna "Nombre: García López, Miguel Ángel";
pasar a dos columnas "Nombre: Miguel Ángel", "Apellido1: García" y "Apellido2: López").
- La aplicación de cualquier forma, simple o compleja, de validación de datos, y la consiguiente
aplicación de la acción que en cada caso se requiera:
-Datos OK: Entregar datos a la siguiente etapa (Carga).
-Datos erróneos: Ejecutar políticas de tratamiento de excepciones (por ejemplo, rechazar el registro
completo, dar al campo erróneo un valor nulo o un valor centinela).
CARGAR
Es el momento en el cual los datos de la fase anterior (transformación) son cargados en el sistema de destino. Dependiendo de los requerimientos de la organización, este proceso puede abarcar una amplia variedad de acciones diferentes. En algunas bases de datos se sobreescribe la información antigua con nuevos datos. Los Data Warehouse mantienen un historial de los registros de manera que se pueda hacer una auditoría de los mismos y disponer de un rastro de toda la historia de un valor a lo largo del tiempo. Existe una única forma de cargar los datos:
· Rolling: Se aplica en los casos en que se opta por mantener varios niveles de granularida (jerarquías). Para ello se almacena información resumida a distintos niveles, correspondientes a distintas agrupaciones de la unidad de tiempo o diferentes niveles jerárquicos en alguna o varias de las dimensiones de la magnitud almacenada (por ejemplo, totales diarios, totales semanales, totales mensuales, etc.).
¿Qué es un Data Warehouse?
Es una colección de datos orientada a un determinado ámbito (empresa, organización, etc.), que ayuda a la toma de decisiones en la entidad en la que se utiliza. Un expediente completo de una organización, más allá de la información transaccional y operacional, almacenado en una base de datos diseñada para favorecer el análisis y la divulgación eficiente de datos (especialmente OLAP, procesamiento analítico en línea). El almacenamiento de los datos no debe usarse con datos de uso actual. Contiene a menudo grandes cantidades de información que se subdividen a veces en unidades lógicas más pequeñas dependiendo del subsistema de la entidad del que procedan o para el que sean necesario.
La ventaja principal de este tipo de bases de datos radica en las estructuras en las que se almacena la información (modelos de tablas en estrella, en copo de nieve, cubos relacionases, etc.). Este tipo de persistencia de la información es homogénea y fiable, y permite la consulta y el tratamiento jerarquizado de la misma (siempre en un entorno diferente a los sistemas operacionales).
Este término fue acuñado por primera vez por Bill Inman, y se traduce literalmente como almacén de datos. No obstante, es mucho más que es eso, ya que como el mismo Bill definió, se caracteriza por ser:
- Integrado: los datos almacenados en el datawarehouse deben integrarse en una estructura consistente, por lo que las inconsistencias existentes entre los diversos sistemas operacionales deben ser eliminadas. La información suele estructurarse también en distintos niveles de detalle para adecuarse a las distintas necesidades de los usuarios.
- Temático: solo los datos necesarios para el proceso de generación del conocimiento del negocio se integran desde el entorno operacional. Los datos se organizan por temas para facilitar su acceso y entendimiento por parte de los usuarios finales. Por ejemplo, todos los datos sobre clientes pueden ser consolidados en una única tabla del datawarehouse. De esta forma, las peticiones de información sobre clientes serán más fáciles de responder dado que toda la información reside en el mismo lugar.
- Histórico: el tiempo es parte implícita de la información contenida en un datawarehouse. En los sistemas operacionales, los datos siempre reflejan el estado de la actividad del negocio en el momento presente. Por el contrario, la información almacenada en el datawarehouse sirve, entre otras cosas, para realizar análisis de tendencias. Por lo tanto, el datawarehouse se carga con los distintos valores que toma una variable en el tiempo para permitir comparaciones.
- No volátil: el almacén de información de un datawarehouse existe para ser leído, pero no modificado. La información es por tanto permanente, significando la actualización del datawarehouse la incorporación de los últimos valores que tomaron las distintas variables contenidas en él sin ningún tipo de acción sobre lo que ya existía.
La ventaja principal de este tipo de bases de datos radica en las estructuras en las que se almacena la información (modelos de tablas en estrella, en copo de nieve, cubos relacionases, etc.). Este tipo de persistencia de la información es homogénea y fiable, y permite la consulta y el tratamiento jerarquizado de la misma (siempre en un entorno diferente a los sistemas operacionales).
Este término fue acuñado por primera vez por Bill Inman, y se traduce literalmente como almacén de datos. No obstante, es mucho más que es eso, ya que como el mismo Bill definió, se caracteriza por ser:
- Integrado: los datos almacenados en el datawarehouse deben integrarse en una estructura consistente, por lo que las inconsistencias existentes entre los diversos sistemas operacionales deben ser eliminadas. La información suele estructurarse también en distintos niveles de detalle para adecuarse a las distintas necesidades de los usuarios.
- Temático: solo los datos necesarios para el proceso de generación del conocimiento del negocio se integran desde el entorno operacional. Los datos se organizan por temas para facilitar su acceso y entendimiento por parte de los usuarios finales. Por ejemplo, todos los datos sobre clientes pueden ser consolidados en una única tabla del datawarehouse. De esta forma, las peticiones de información sobre clientes serán más fáciles de responder dado que toda la información reside en el mismo lugar.
- Histórico: el tiempo es parte implícita de la información contenida en un datawarehouse. En los sistemas operacionales, los datos siempre reflejan el estado de la actividad del negocio en el momento presente. Por el contrario, la información almacenada en el datawarehouse sirve, entre otras cosas, para realizar análisis de tendencias. Por lo tanto, el datawarehouse se carga con los distintos valores que toma una variable en el tiempo para permitir comparaciones.
- No volátil: el almacén de información de un datawarehouse existe para ser leído, pero no modificado. La información es por tanto permanente, significando la actualización del datawarehouse la incorporación de los últimos valores que tomaron las distintas variables contenidas en él sin ningún tipo de acción sobre lo que ya existía.
lunes, 18 de abril de 2016
Crear un rol de super usuario a un usuario de postgres.
En mi caso no podía ver el contenido en mis tablas de pgadmin porque me daba problemas de permisos entonces he optado a darle rol de super usuario .
Entonces en la consola de ubuntu he puesto la siguiente linea de comando.
psql -U postgres
ALTER ROLE nombredeusuario WITH SUPERUSER;
Con esto ya tengo mi usuario como super usuario con todos los permisos.
Resumen: Semana del 11 al 15 de abril
Día 11
Instalación de modulo de ventas en odoo.
Vimos un video y comentamos.
Explicación de unidad formativa 4.
Hicimos una evaluación de la unidad 3.
Día 12
Vimos parte del plan general contable explicado por nuestro compañero Antonio.
Creamos una nueva base de datos desde Odoo.
Fin de la unidad formativa 4.
Día 13
Continuación de la explicación del plan general contable por nuestro compañero Antonio.
Comentamos sobre un articulo "Una mala persona no puede llegar a ser un excelente profesional."
Explicación de la unidad formativa 5.
Día 14
Instalación de módulo de ventas en odoo.
Configuración del módulo instalado.
Creación de un cliente nuevo.
Día 15
Explicación de la unidad didáctica 8.
Instalación de modulo de topónimos, y resolución de problemas relacionados con Unicodecsv (esencial en su instalación).
Exploración de pgAdmin.
Exploración del contenido de las tablas.
Debate sobre un artículo relacionado con los tipos de inteligencias que existen.
Instalación de modulo de ventas en odoo.
Vimos un video y comentamos.
Explicación de unidad formativa 4.
Hicimos una evaluación de la unidad 3.
Día 12
Vimos parte del plan general contable explicado por nuestro compañero Antonio.
Creamos una nueva base de datos desde Odoo.
Fin de la unidad formativa 4.
Día 13
Continuación de la explicación del plan general contable por nuestro compañero Antonio.
Comentamos sobre un articulo "Una mala persona no puede llegar a ser un excelente profesional."
Explicación de la unidad formativa 5.
Día 14
Instalación de módulo de ventas en odoo.
Configuración del módulo instalado.
Creación de un cliente nuevo.
Día 15
Explicación de la unidad didáctica 8.
Instalación de modulo de topónimos, y resolución de problemas relacionados con Unicodecsv (esencial en su instalación).
Exploración de pgAdmin.
Exploración del contenido de las tablas.
Debate sobre un artículo relacionado con los tipos de inteligencias que existen.
viernes, 15 de abril de 2016
martes, 12 de abril de 2016
lunes, 11 de abril de 2016
Resumen: Semana del 4 al 8 de abril
Día 4
Instalación de Odoo
Visionado de un vídeo de Grant Thornton sobre la crisis española.
Día 5
Repaso de la unidad 2
Evaluación de la unidad 2
Explicación de la unidad 3
Día 6
Explicación de nuestro compañero Ricardo de un tutorial de la instalación de Odoo
Visitando de un vídeo sobre la metodología ágil (Agilidad)
Día 7
Instalación de pgAdmin.
Realización de totorales.
Explicación de tutorial de instalación de Odoo por nuestra compañera Lucía.
Dia 8
Continuación de la instalación de pgAdmin, y configuración del mismo.
Configuración de módulos en Odoo por nuestro compañero Rafa.
Instalación de Odoo
Visionado de un vídeo de Grant Thornton sobre la crisis española.
Repaso de la unidad 2
Evaluación de la unidad 2
Explicación de la unidad 3
Día 6
Explicación de nuestro compañero Ricardo de un tutorial de la instalación de Odoo
Visitando de un vídeo sobre la metodología ágil (Agilidad)
Día 7
Instalación de pgAdmin.
Realización de totorales.
Explicación de tutorial de instalación de Odoo por nuestra compañera Lucía.
Dia 8
Continuación de la instalación de pgAdmin, y configuración del mismo.
Configuración de módulos en Odoo por nuestro compañero Rafa.
viernes, 8 de abril de 2016
Instalación de ODOO
INSTALACIÓN DE ODOO
El proceso de
instalación de este famoso ERP en el cual hay que estar atentos a lo
que se está haciendo , en el que son requisitos fundamentales a
continuación iniciamos el proceso:
Como ya tenemos la
versión de Ubuntu 14.04 ,versión server o de escritorio,bien
comencemos:
1-Actualizamos
el sistema,para poder trabajar con los paquetes más actuales
-
Abrimos la terminal y nos cambiamos a modo root (sudo su). Ahora y veremos que antes de insertar cualquier comando en la terminal tenemos el símbolo #.
-
apt-get upgrade
-
apt-get upgrade
2-Instalamos
el editor de texto Vim.
-
Apt-get install vim
3-Creamos
el usuario Odoo con el que ejecutaremos la app , que se creará
automáticamente una carpeta personal llamada personal/opt/odoo
-
adduser--system –home=/apt/odoo—group odoo
4-Instalamos
la base de datos postgres
-
apt-get install postgresql
5-Iniciamos
sesión con postgres
-
su-postgres
6-Creamos
un usuario para Odoo ERP en postgreSql, le asignamos un password y
salimos de la sesión de postgres.
-
createuser—createdb--username postgres—no-createrole--no-superuser--pwprompt odoo
Enter password for new
role:
Elijes la que prefieras
Enter it again:
-
Exit
7-Instalamos
los paquetes necesarios de python para Odoo ERP,para asegurarte que
todos los paquetes se hayan instalado puedes repetir este paso y ver
que todos los paquetes ya estan en su versión más reciente.
-
Apt-get install python-dateutil python-feedparser python-gdata python-ldap python-libxslt1 python-lxml python-mako python-openid python-psycog2 python-pybabel python-pychart python-pydot python-pyparsing python-reporlabp python-simplejson python-tz python-vatnumber python-vabject python-webdav python-werkzeug python-xlwt python-yaml python-zsi python-docutils python-psutil wget python-unitest2 python-mock python-jinja2 python-dev libpq-dev poppler-utils python-pdftools antiword python-setuptools python-requests python-pypdf python-decorator python-passlib8-Entramos en la carpeta /opt/odoo
-
cd/opt/odoo
9-Instalamos
la última versión del paquete gdata-python-client en el siguiente
enlace:
-
wget https://github.com/google/gdata-python-client/archive/master.zip(permite descargar el paquete)
-
unzip master.zip (esta opción permite descomprimir el paquete)
-
cd gdta-python-client-master ( ingresamos a la carpeta descomprimida)
-
python setup.py install (instalamos)
-
cd..(salimos de la carpeta)
10-Descargamos
Odoo ERP de este siquiente enlace, y después lo descomprimimos , le
cambiamos el permiso de la carpeta descomprimida y la renombramos.
-
unzip odoo-8.0.zip
-
chown -R odoo: odoo-8.0
-
cp -a odoo-8.0 server server
11-Configuramos
Odoo ERP
-
cp /opt/odoo/server/debian/openerp-server.conf /etc/odoo-server.conf
-
chown odoo:/etc/odoo-server.conf
-
chmod 640 /etc/odoo-server.conf
Y
ahora editamos el archivo /etc/odoo-server.conf de la siguiente
manera:
-
vim/etc/odoo-server.conf
(Options)
;
This is the password that allows database operations:
;
admin_passwd=admin
db_host=localhost
db_port=5432
db_user=odoo
db_password=password_paso6
logfile=/var/log/odoo/odoo-server.log
addons_path=/opt/odoo/server/addons/
-
Obervaciones: Para editar con Vim debemos cambiarlo a el modo insert pulsando la letra ‘i’, para guardar y salir primero debemos ponerlo en modo comando pulsando la tecla ESC y luego ingresar el comando ‘ :wq (sin las comillas simples). Recuerda que el password del paso 6 debe ir en db_password.
12-Probamos
Odoo ERP
-
su – odoo -s/bin/bash (En caso de no estar como superusuario puedes probar con ‘sudo su -odoo-s/binbash’)
-
/apt/odoo/server/openerp-server
-
Si todo está bien debe salir algo como esto:
-
2015-09-04 18:58:56,885 7802 INFO ? openerp: OpenERP version 8.0 2015-09-04 18:58:56,885 7802 INFO ? openerp: addons paths: ['/opt/odoo/.local/share/Odoo/addons/8.0', u'/opt/odoo/server/openerp/addons', u'/opt/odoo/server/addons'] 2015-09-04 18:58:56,886 7802 INFO ? openerp: database hostname: localhost 2015-09-04 18:58:56,886 7802 INFO ? openerp: database port: 5432 2015-09-04 18:58:56,886 7802 INFO ? openerp: database user: odoo 2015-09-04 18:58:57,556 7802 INFO ? openerp.service.server: HTTP service (werkzeug) running on 0.0.0.0:8069
Puedes
comprobar que esta funcionando correctamente poniendo en el navegador
localhost:8069
Presionamos
ctrl+c para parar el servicio de odoo
Escribimos
exit en la terminal para salir de la sesión de odoo
13-Implementamos
el servicio odoo en etc/init.d
-
cd /etc/init:d
-
wget http://salazarcarlos.com/odoo-server (cortesía de nuestro amigo Javier)
-
chmod 755 /etc/init.d/odoo-server
-
chown root: /etc/init.d/odoo-server
14-Implementamos
el log de odoo. Recordemos que esta ruta se usó en el archivo de
configuración /etc/odoo-server.conf
-
mkdir /var/log/odoo
-
chown odoo:root /var/log/odoo
15-Iniciando
el servidor con cambios finales
-
/etc/init.d/odoo-server start
16-Ahora
podemos ir a un navegador web y probar
-
http://IP_or_domain.com:8069
INSTALACION DE PGADMIN(Linda)
En el siguiente enlace tenemos un pequeño tutorial para instalar pgAdmin en Ubuntu 14.
Enlace para instalar pgadmin
Enlace para instalar pgadmin
Instalación de Odoo en Ubuntu 14(Linda)
Entrar a la instalacion de Oddo en Ubuntu14
Aclaración: Si tenemos problemas de permisos a la hora de manejar tablas en PGadmin3, instalamos webAdmin. Después, en la zona de PostgreSQL, buscamos usuarios, pinchamos en el usuario donde tenemos los problemas. Ponemos que sí a todos los permisos que lo requieran, y después volvemos a conectar la base de datos en PGAdmin3 donde estamos trabajando. Posteriormente, actualizamos con el botón que aparece arriba, y ya podremos acceder sin problemas de restricciones a la información contenida.
Aclaración: Si tenemos problemas de permisos a la hora de manejar tablas en PGadmin3, instalamos webAdmin. Después, en la zona de PostgreSQL, buscamos usuarios, pinchamos en el usuario donde tenemos los problemas. Ponemos que sí a todos los permisos que lo requieran, y después volvemos a conectar la base de datos en PGAdmin3 donde estamos trabajando. Posteriormente, actualizamos con el botón que aparece arriba, y ya podremos acceder sin problemas de restricciones a la información contenida.
martes, 5 de abril de 2016
Tutorial de Dolibarr para Ubuntu [mediante terminal] (Lucía)
A continuación, un sencillo tutorial de cómo instalar Dolibarr en Ubuntu (en este caso, 14.04) mediante terminal:
lunes, 4 de abril de 2016
Resumen del 28 de marzo al 1 de abril de 2016.
RESUMEN SEMANAL DE CLASE (28 marzo al 1 abril)
1 abril
Evaluación escrita de las dos unidades vistas anteriormente.
Control de lo aprendido sobre empresas.
Características de los modelos funcionales de un ERP-odoo.
Terminar tutoriales de instalación.
Finalización de diagramas de ERP's y CRM's.
30-31 marzo
29 marzo
Continuamos con la preparación de los tutoriales de instalación de los ERP's y CRM's en los distintos sistemas operativos.
Avanzamos en materia de teoría con respecto a las empresas.
También reanudamos las lecciones pendientes de Codeacademy.
28 marzo
Estuvimos realizando un resumen de lo acontecido la semana pasada, y además realizamos una entrada incluyendo las características destacadas que hemos aprendido sobre las empresas. También hicimos trabajo de colaboración al ayudar a nuestra compañera Inma a resolver un problema surgido en su máquina virtual.
30-31 marzo
Empezamos a realizar los diagramas de los ERP's y CRM's que hemos elegido.
También hemos continuado con Codeacademy y los apartados de Python, Command Line y SQL
Hemos visto también conferencias del formador Victor Küppers
Hemos instalado Bonita Software, presentando algunos problemas relacionados con la versión de Java y la configuración de seguridad del sistema.
Hemos instalado Bonita Software, presentando algunos problemas relacionados con la versión de Java y la configuración de seguridad del sistema.
Hemos terminado partes teóricas acerca de las empresas.
29 marzo
Continuamos con la preparación de los tutoriales de instalación de los ERP's y CRM's en los distintos sistemas operativos.
Avanzamos en materia de teoría con respecto a las empresas.
También reanudamos las lecciones pendientes de Codeacademy.
28 marzo
Estuvimos realizando un resumen de lo acontecido la semana pasada, y además realizamos una entrada incluyendo las características destacadas que hemos aprendido sobre las empresas. También hicimos trabajo de colaboración al ayudar a nuestra compañera Inma a resolver un problema surgido en su máquina virtual.
Dicho problema fue que no podía entrar a su sesión en Ubuntu, a pesar de estar introduciendo la contraseña correcta. Tras intentar arreglarlo mediante varios métodos encontrados en Google, y viendo que ninguno de ellos resultó, determinamos que era mejor que reinstalase todo el sistema operativo desde cero, y así se hacía limpieza de posibles errores que tuviese. Todo esta problemática pudo ser originada (no podemos afirmarlo al no poder acceder a la configuración del SS.OO) porque se buscaba instalar todo lo relacionado con MySQL cuando ya se había realizado durante el proceso de instalación del sistema operativo. En cualquier caso, dada la circunstancia, era mejor eliminar esa máquina virtual y empezar de nuevo.
También estuvimos avanzando en la preparación de nuestros tutoriales de instalación y configuración de ERP's y CRM's.
Suscribirse a:
Entradas (Atom)