¿Por qué prefiero Vagrant sobre Wamp Server?

Hoy he publicado en el blog de Urlan Heat un artículo contando por qué prefiero usar Vagrant para crear mis entornos de desarrollo en lugar de usar Wamp o tener un servidor Apache y MySQL instalado en mi ordenador. Si no has probado Vagrant te recomiendo que le eches un vistazo. ¿Por qué es mejor … Read more¿Por qué prefiero Vagrant sobre Wamp Server?

Redireccionar un directorio con HTTP 301 y expresiones regulares

Hace bastante tiempo escrbí un artículo sobre redirecciones con HTTP 301 para ficheros. Si queremos mover todos los ficheros contenidos en un directorio, con ese sistema deberíamos hacerlo uno a uno. Para ayudarnos en esta tarea podemos usar RedirectMatch y expresiones regulares:

Lo que encontremos dentro del (.*) se trasladará al $1 en la … Read moreRedireccionar un directorio con HTTP 301 y expresiones regulares

Eliminar el www de la URL con .htaccess

Tal y como se suele aconsejar es recomendable decidirse por usar nuestro dominio con www o sin www para temas de posicionamiento. Yo suelo elegir sin las www. Para hacerlo una opción es usar el fichero .htaccess y poner el siguiente código:

Si lo que buscamos es lo contrario, es decir, que se añada … Read moreEliminar el www de la URL con .htaccess

libCurl en PHP

libCurl es una biblioteca (o, como suele decirse: librería) para la transferencia de archivos que soporta varios protocolos (FTP, FTPS, HTTP, HTTPS, SCP, SFTP, TFTP, TELNET, DICT, LDAP, LDAPS y FILE). Lo más habitual es que el soporte para cURL venga “de serie” en una instalación PHP. Si no es así tienes dos opciones: 1) … Read morelibCurl en PHP

Activar register_globals

Vale, sí, es una locura hoy en día y una fuente inagotable de problemas en cuanto a seguridad se refiere. Sin embargo hay casos en los que en muy útil activar el register_globals. Precisamente hace unos días me encontré con un cliente que quería actualizar un software antiquísimo escrito en PHP que necesitaba tener activado … Read moreActivar register_globals

Qué es el fichero robots.txt

El fichero robots.txt indica a los buscadores qué es lo que pueden mirar en la web y lo que no. Si alguna vez has analizado el tráfico de tu web probablemente habrás visto que tienes un montón de visitas que realmente son los robots de los buscadores. Estos robots pueden consumir, en algunos casos, bastante … Read moreQué es el fichero robots.txt

Añadir soporte GD a Apache en Ubuntu

Vale, esta me ha costado un poco. Tenía que configurar un servidor Apache para que tuviese soprote GD para PHP y después de muchas vueltas lo he encontrado:

Después sólo queda reiniciar el servidor Apache:

Reiniciar Apache en Ubuntu

Por si alguien tiene dudas de cómo se hace lo indico aquí (me lo han preguntado varios): Reiniciar Apache:

Parar/Arrancar: